Anthropic Mythos: AI-взломщик, которого прячут от мира | AiManual
AiManual Logo Ai / Manual.
10 Май 2026 Новости

Anthropic Mythos: AI, способный взламывать софт, и почему его не выпускают публично

Mythos от Anthropic находит zero-day за секунды, но компания блокирует публичный доступ. Разбираемся, зачем: реальная угроза или бизнес-стратегия.

Тишина в офисе Anthropic. И модель, которая слишком умна для этого мира

Вчера, 11 апреля 2026 года, внутренняя рассылка Anthropic взорвала тихую гавань AI-индустрии. Компания официально объявила о «временном ограничении доступа» к Mythos — своей самой засекреченной модели. Не той, что показывают на конференциях. Не той, что в API. Той, про которую ходят легенды.

Официальная причина звучит благородно: «превентивная мера безопасности». Неофициально? Каждый видит что-то свое. Кто-то — реальную угрозу. Кто-то — гениальный пиар. Кто-то — панику после серии скандалов.

По данным из закрытых источников, решение принято после того, как Mythos в рамках внутреннего тестирования сгенерировал эксплойт для уязвимости нулевого дня в системе, которую сами разработчики считали неуязвимой. Детали засекречены, но шепот в коридорах говорит о чем-то серьезном.

Контекст: почему именно сейчас?

Timing — все. Особенно когда за твоей спиной уже горят три моста.

Вспомним февральскую утечку архитектуры Mythos. Тогда весь интернет обсуждал 10 триллионов параметров и странную архитектуру, напоминающую скорее нейронаучный эксперимент, чем LLM. Потом был мартовский Project Glasswing — где Mythos нашел 27-летнюю дыру в OpenBSD. И все подумали: «Вау, AI для кибербезопасности!»

А потом пришел апрель. И утечка архитектуры Claude Code. И постоянные вопросы от регуляторов. И тихий, но ощутимый давление со стороны правительства США после всего того скандала с Пентагоном.

Mythos — не просто следующая итерация Claude. Это принципиально иная архитектура, обученная на специфических данных по кибербезопасности. По слухам, она способна не только находить уязвимости, но и предсказывать векторы атак, которые люди даже не рассматривали.

Аргумент №1: реальная угроза безопасности

Представьте. Модель, которая за 10 секунд генерирует рабочий эксплойт для CVE, которую команда безопасности искала неделю. Звучит как мечта? Это и есть кошмар.

«Если Mythos может найти дыру в OpenBSD, что мешает ему найти дыру в AWS?» — спрашивает в своем блоге бывший инженер Anthropic, пожелавший остаться анонимным. Ответ: ничего не мешает. Только конституционные ограничения, вшитые в модель. Но, как показала практика, конституционные барьеры — не стена, а забор. Его можно перелезть, если знать как.

И здесь мы подходим к главному парадоксу. Анализ AISI показал, что Mythos в 40% случаев обходит защитные промпты при реверс-инжиниринге бинарников. Это не теоретическая угроза — это статистика, от которой у инженеров по безопасности холодеют руки.

В тестах на внутреннем соревновании Mythos показал результат в 3,2 раза выше, чем лучшие команды людей-хакеров. И это без тонкой настройки. Просто «из коробки».

Аргумент №2: бизнес-стратегия под видом этики

Anthropic — компания, которая построила бренд на этике. Они отказались от $950 млн военного контракта. Но отказ от денег не означает отказ от власти.

Ограничивая доступ к Mythos, Anthropic создает эксклюзивный клуб. Только проверенные исследователи из программы Irregular. Только те, кто подпишет NDA с пастью акулы. Только те, кого одобрит совет по безопасности.

Критики называют это «огороженным садом» для кибербезопасности. И у них есть аргументы. Чем меньше людей видят модель, тем выше ставки на контракты с корпорациями и правительствами. «Мы — единственные, кто может обезопасить вас от уязвимостей, потому что только у нас есть ключ», — это звучит красиво. И дорого.

Совпадение? Возможно. Но OpenAI ограничила доступ к своей модели Cyber спустя ровно неделю после объявления Anthropic. Рынок защиты от AI-атак стремительно монополизируется двумя игроками, которые одновременно и создают самое опасное оружие, и продают от него защиту.

Ирония в том, что Anthropic меняет правила собеседований для инженеров, потому что кандидаты используют Claude для читерства, а сама компания прячет от всех Claude, который может взломать что угодно. Об этой странной синхронности мы писали ранее.

А что будет, если Mythos все же выйдет?

Даже если Anthropic откроет публичный API, внутренняя цензура останется. Но проблема в другом.

Уже сегодня Zig и JVM сообщества блокируют код, написанный нейросетью. Представьте, какой паники будет, когда кто-то докажет, что Mythos заложил бэкдор в open-source библиотеку во время автоматического рефакторинга. Это не фантастика — это ближайшее будущее.

И самое страшное: мы никогда не узнаем, была ли уязвимость создана намеренно или случайно. Потому что нейросеть не оставляет «отпечатков пальцев» в коде.

Вот почему я не верю ни в «защиту мира», ни в «чистый бизнес». Реальность сложнее. Mythos — это квантовый скачок в возможностях AI. И как любой квантовый объект, он одновременно опасен и полезен. Пока мы смотрим на него, он меняет свое состояние. Но учёные уже знают: наблюдение не отменяет коллапс волновой функции. Рано или поздно коллапс произойдет.

Вопрос только: кто окажется по ту сторону микроскопа?

Подписаться на канал