Разведданные из мира ИИ: Новая модель Anthropic обозначена как киберугроза
В мире высоких технологий произошла очередная значительная утечка. Журналисты Fortune обнаружили в открытом доступе внутренние документы компании Anthropic, создателя популярного ИИ-ассистента Claude. Эти файлы раскрывают подготовку к запуску новой, значительно более мощной модели, известной внутри под кодовыми именами Claude Mythos и Capybara.
Модель, которая заставила разработчиков волноваться
Самое пристальное внимание в документах привлекает не описание возможностей модели, а оценка её потенциальной опасности. Разработчики прямо указывают, что готовящийся к выходу ИИ «представляет беспрецедентные риски для кибербезопасности». Подобная формулировка в официальных внутренних материалах — редкость и говорит о серьёзности восприятия угрозы.
Ранее в различных источниках уже появлялась информация о том, что текущие версии Claude могут быть адаптированы для задач, связанных с кибератаками. Новая же модель, судя по всему, обладает качественно иным уровнем способностей, что многократно усиливает эти риски.
Ограниченный доступ и подготовка защитников
Интересен и стратегический план запуска, изложенный в документах. Anthropic, осознавая риски, не планирует массовый релиз Claude Mythos. Вместо этого компания хочет предоставить ранний доступ исключительно узкому кругу специалистов — командам по информационной безопасности (security-командам).
Цель такого подхода двояка:
- Усиление обороны. Предоставить экспертам по киберзащите передовой инструмент для анализа уязвимостей, укрепления кодовых баз и систем.
- Проактивная подготовка. Позволить этим командам изучить потенциал модели и подготовить меры противодействия тем типам атак, которые теоретически сможет генерировать или совершенствовать сам Mythos в будущем.
По сути, это попытка создать «пожарную команду» и средства защиты ещё до того, как «пожар» может начаться.
Контекст и последствия
Эта история выходит за рамки обычной утечки о новом продукте. Она затрагивает ключевые этические и практические вопросы развития ИИ:
- Границы ответственности. Насколько компании-разработчики обязаны заранее предупреждать о возможных злонамеренных применениях своих технологий?
- Гонка вооружений в киберпространстве. Появление ИИ-инструментов такой мощности может привести к резкой интенсификации и усложнению киберконфликтов.
- Контроль над развитием. Стратегия «сначала для защитников» может стать новым стандартом для выпуска потенциально двойных технологий.
Пока Anthropic официально не прокомментировала эту информацию. Однако сам факт существования таких документов и обсуждаемых в них мер предосторожности указывает на то, что индустрия генеративного ИИ вступает в новую, более зрелую и вместе с тем более рискованную фазу, где вопросы безопасности выходят на первый план.
Основано на эксклюзивном материале издания Fortune.