Capybara или Mythos: Что скрывает новая киберопасная модель Anthropic?

Разведданные из мира ИИ: Новая модель Anthropic обозначена как киберугроза

В мире высоких технологий произошла очередная значительная утечка. Журналисты Fortune обнаружили в открытом доступе внутренние документы компании Anthropic, создателя популярного ИИ-ассистента Claude. Эти файлы раскрывают подготовку к запуску новой, значительно более мощной модели, известной внутри под кодовыми именами Claude Mythos и Capybara.

Модель, которая заставила разработчиков волноваться

Самое пристальное внимание в документах привлекает не описание возможностей модели, а оценка её потенциальной опасности. Разработчики прямо указывают, что готовящийся к выходу ИИ «представляет беспрецедентные риски для кибербезопасности». Подобная формулировка в официальных внутренних материалах — редкость и говорит о серьёзности восприятия угрозы.

Ранее в различных источниках уже появлялась информация о том, что текущие версии Claude могут быть адаптированы для задач, связанных с кибератаками. Новая же модель, судя по всему, обладает качественно иным уровнем способностей, что многократно усиливает эти риски.

Ограниченный доступ и подготовка защитников

Интересен и стратегический план запуска, изложенный в документах. Anthropic, осознавая риски, не планирует массовый релиз Claude Mythos. Вместо этого компания хочет предоставить ранний доступ исключительно узкому кругу специалистов — командам по информационной безопасности (security-командам).

Цель такого подхода двояка:

  • Усиление обороны. Предоставить экспертам по киберзащите передовой инструмент для анализа уязвимостей, укрепления кодовых баз и систем.
  • Проактивная подготовка. Позволить этим командам изучить потенциал модели и подготовить меры противодействия тем типам атак, которые теоретически сможет генерировать или совершенствовать сам Mythos в будущем.

По сути, это попытка создать «пожарную команду» и средства защиты ещё до того, как «пожар» может начаться.

Контекст и последствия

Эта история выходит за рамки обычной утечки о новом продукте. Она затрагивает ключевые этические и практические вопросы развития ИИ:

  • Границы ответственности. Насколько компании-разработчики обязаны заранее предупреждать о возможных злонамеренных применениях своих технологий?
  • Гонка вооружений в киберпространстве. Появление ИИ-инструментов такой мощности может привести к резкой интенсификации и усложнению киберконфликтов.
  • Контроль над развитием. Стратегия «сначала для защитников» может стать новым стандартом для выпуска потенциально двойных технологий.

Пока Anthropic официально не прокомментировала эту информацию. Однако сам факт существования таких документов и обсуждаемых в них мер предосторожности указывает на то, что индустрия генеративного ИИ вступает в новую, более зрелую и вместе с тем более рискованную фазу, где вопросы безопасности выходят на первый план.

Основано на эксклюзивном материале издания Fortune.