Anthropic ограничила Mythos: этика или стратегия? | Новости AI 2026 | AiManual
AiManual Logo Ai / Manual.
09 Апр 2026 Новости

Этика AI: почему Anthropic ограничила Mythos - защита мира или бизнес-стратегия?

Почему Anthropic ограничила доступ к AI-инструменту Mythos для поиска уязвимостей? Разбор этических и бизнес-мотивов в свете скандалов с Пентагоном.

Mythos: инструмент, который слишком опасен для всех?

На прошлой неделе Anthropic тихо, но очень громко объявила: доступ к Mythos, их новейшей AI-системе для автоматического поиска уязвимостей в коде, будет строго ограничен. Не для всех. Только для предварительно одобренных исследователей из программы Irregular. Звучит благородно? Конечно. Но в Силиконовой долине уже шепчутся: а не очередной ли это гениальный ход, чтобы создать искусственный дефицит и поднять цену?

По данным на 09.04.2026, Mythos - это надстройка над флагманской моделью Claude 4.0, обученная на датасетах с нулевыми днями (zero-day) и методах обратной разработки. В открытом доступе ее нет и не будет.

Контекст: этика как бренд Anthropic

Чтобы понять этот шаг, нужно вспомнить, кто такие Anthropic. Это компания, которая отказалась от $950 млн военного контракта, потому что ее принципы не позволяют участвовать в разработке автономного оружия. Их публичный образ - белые рыцари в ржавых доспехах этичного AI. Но после запрета Трампа на использование Claude в госсекторе многие начали сомневаться: а не переигрывают ли они?

Теперь представьте. Они создают Mythos - инструмент, который может находить дыры в любом ПО быстрее человека. В теории, это мечта для безопасности. На практике - идеальное оружие для киберпреступников или государств, желающих запастись эксплойтами. Выпускать такую штуку в мир - все равно что раздавать схемы ядерных бомб на улице.

Защита мира или контроль над рынком?

Официальная позиция Anthropic звучит убедительно: "Мы предотвращаем катастрофические риски для кибербезопасности". Неофициально аналитики строят другие догадки.

💡
Что такое Irregular? Это программа Anthropic, запущенная в конце 2025 года, для этичного раскрытия уязвимостей. Участники получают доступ к инструментам вроде Mythos, но обязаны сообщать о найденных багах ответственно. Критики называют это "огороженным садом" для кибербезопасности.

Первый аргумент скептиков: деньги. Ограничивая доступ, Anthropic создает эксклюзивный клуб. Цена на участие взлетает. Уже ходят слухи, что крупные корпорации платят миллионы за доступ к Mythos через бэкдор-соглашения. Это не благотворительность - это бизнес-модель премиум-класса.

Второй аргумент: власть. Тот, кто контролирует самый мощный инструмент для поиска уязвимостей, контролирует цифровую уязвимость всего мира. Это уровень влияния, о котором Пентагон может только мечтать. И здесь возникает жуткая ирония: Anthropic, отказавшаяся работать с военными, сама становится держателем цифрового оружия массового поражения. Только с этической лицензией.

Раскол в индустрии: а что делают другие?

Пока Anthropic играет в хранителя ключей, другие действуют иначе. OpenAI, после скандального раскола по поводу работы с Пентагоном, интегрировал функции анализа кода в ChatGPT 5.0, но с жесткими ограничителями. Google DeepMind выпустил похожий инструмент в открытый доступ, но с умышленно сниженной мощностью.

Подход Anthropic - самый радикальный. Полный контроль. Никаких компромиссов. Это либо высшая форма ответственности, либо высшая форма высокомерия. (Или и то, и другое одновременно).

КомпанияИнструментДоступность (на 09.04.2026)Подход к этике
AnthropicMythos (на базе Claude 4.0)Закрытый, только для IrregularЖесткий контроль, принципиальный отказ
OpenAICode Analyzer в ChatGPT 5.0Публичный, с ограничениямиПрагматичный, с госзаказами
Google DeepMindVulnScan LiteОткрытый исходный кодДемократичный, но менее мощный

Так что же это на самом деле?

Вероятно, и то, и другое. Защита мира - удобное прикрытие для блестящей бизнес-стратегии. Anthropic, обжегшись на судебных баталиях с Пентагоном, научилась одной важной вещи: в мире AI тот, кто владеет нарративом об этике, владеет и рынком. Mythos - это физическое воплощение их нарратива. Мы не отдаем оружие детям. Мы доверяем его только избранным взрослым. И мы сами решаем, кто взрослый.

Опасность в другом. Создавая эталонный инструмент и запирая его в сейф, Anthropic может непреднамеренно замедлить прогресс в кибербезопасности. Пока небольшие команды энтузиастов ковыряются в устаревшем open-source, настоящая мощь спит в охраняемой лаборатории. Это напоминает историю с ядерной энергией: благие намерения о нераспространении иногда оборачиваются технологическим застоем.

Что делать обычному разработчику или исследователю безопасности в 2026 году? Не надеяться на милость Anthropic. Смотреть в сторону альтернатив, давить на регуляторов для создания международных рамок обмена такими инструментами. И помнить: за каждой этической дилеммой в AI стоит чей-то расчет. Даже если этот расчет облачен в мантию спасителя человечества.

Прогноз на 2027 год? Давление на Anthropic усилится. Появятся утечки Mythos или его клоны из Китая. И тогда компания окажется перед выбором: открыть доступ шире, чтобы задать стандарт, или еще сильнее закрутить гайки, развязав новую волну этических бунтов. Круче любого голливудского сценария.

Подписаться на канал