Mythos: инструмент, который слишком опасен для всех?
На прошлой неделе Anthropic тихо, но очень громко объявила: доступ к Mythos, их новейшей AI-системе для автоматического поиска уязвимостей в коде, будет строго ограничен. Не для всех. Только для предварительно одобренных исследователей из программы Irregular. Звучит благородно? Конечно. Но в Силиконовой долине уже шепчутся: а не очередной ли это гениальный ход, чтобы создать искусственный дефицит и поднять цену?
По данным на 09.04.2026, Mythos - это надстройка над флагманской моделью Claude 4.0, обученная на датасетах с нулевыми днями (zero-day) и методах обратной разработки. В открытом доступе ее нет и не будет.
Контекст: этика как бренд Anthropic
Чтобы понять этот шаг, нужно вспомнить, кто такие Anthropic. Это компания, которая отказалась от $950 млн военного контракта, потому что ее принципы не позволяют участвовать в разработке автономного оружия. Их публичный образ - белые рыцари в ржавых доспехах этичного AI. Но после запрета Трампа на использование Claude в госсекторе многие начали сомневаться: а не переигрывают ли они?
Теперь представьте. Они создают Mythos - инструмент, который может находить дыры в любом ПО быстрее человека. В теории, это мечта для безопасности. На практике - идеальное оружие для киберпреступников или государств, желающих запастись эксплойтами. Выпускать такую штуку в мир - все равно что раздавать схемы ядерных бомб на улице.
Защита мира или контроль над рынком?
Официальная позиция Anthropic звучит убедительно: "Мы предотвращаем катастрофические риски для кибербезопасности". Неофициально аналитики строят другие догадки.
Первый аргумент скептиков: деньги. Ограничивая доступ, Anthropic создает эксклюзивный клуб. Цена на участие взлетает. Уже ходят слухи, что крупные корпорации платят миллионы за доступ к Mythos через бэкдор-соглашения. Это не благотворительность - это бизнес-модель премиум-класса.
Второй аргумент: власть. Тот, кто контролирует самый мощный инструмент для поиска уязвимостей, контролирует цифровую уязвимость всего мира. Это уровень влияния, о котором Пентагон может только мечтать. И здесь возникает жуткая ирония: Anthropic, отказавшаяся работать с военными, сама становится держателем цифрового оружия массового поражения. Только с этической лицензией.
Раскол в индустрии: а что делают другие?
Пока Anthropic играет в хранителя ключей, другие действуют иначе. OpenAI, после скандального раскола по поводу работы с Пентагоном, интегрировал функции анализа кода в ChatGPT 5.0, но с жесткими ограничителями. Google DeepMind выпустил похожий инструмент в открытый доступ, но с умышленно сниженной мощностью.
Подход Anthropic - самый радикальный. Полный контроль. Никаких компромиссов. Это либо высшая форма ответственности, либо высшая форма высокомерия. (Или и то, и другое одновременно).
| Компания | Инструмент | Доступность (на 09.04.2026) | Подход к этике |
|---|---|---|---|
| Anthropic | Mythos (на базе Claude 4.0) | Закрытый, только для Irregular | Жесткий контроль, принципиальный отказ |
| OpenAI | Code Analyzer в ChatGPT 5.0 | Публичный, с ограничениями | Прагматичный, с госзаказами |
| Google DeepMind | VulnScan Lite | Открытый исходный код | Демократичный, но менее мощный |
Так что же это на самом деле?
Вероятно, и то, и другое. Защита мира - удобное прикрытие для блестящей бизнес-стратегии. Anthropic, обжегшись на судебных баталиях с Пентагоном, научилась одной важной вещи: в мире AI тот, кто владеет нарративом об этике, владеет и рынком. Mythos - это физическое воплощение их нарратива. Мы не отдаем оружие детям. Мы доверяем его только избранным взрослым. И мы сами решаем, кто взрослый.
Опасность в другом. Создавая эталонный инструмент и запирая его в сейф, Anthropic может непреднамеренно замедлить прогресс в кибербезопасности. Пока небольшие команды энтузиастов ковыряются в устаревшем open-source, настоящая мощь спит в охраняемой лаборатории. Это напоминает историю с ядерной энергией: благие намерения о нераспространении иногда оборачиваются технологическим застоем.
Что делать обычному разработчику или исследователю безопасности в 2026 году? Не надеяться на милость Anthropic. Смотреть в сторону альтернатив, давить на регуляторов для создания международных рамок обмена такими инструментами. И помнить: за каждой этической дилеммой в AI стоит чей-то расчет. Даже если этот расчет облачен в мантию спасителя человечества.
Прогноз на 2027 год? Давление на Anthropic усилится. Появятся утечки Mythos или его клоны из Китая. И тогда компания окажется перед выбором: открыть доступ шире, чтобы задать стандарт, или еще сильнее закрутить гайки, развязав новую волну этических бунтов. Круче любого голливудского сценария.