Mythos AI от Anthropic: результаты тестов кибербезопасности AISI | AiManual
AiManual Logo Ai / Manual.
10 Май 2026 Новости

Mythos AI на экзамене AISI: CTF-тесты, которые заставят переписать учебники по безопасности

AISI опубликовал результаты Capture the Flag для Mythos AI. Как модель справилась с реальными атаками и что это значит для индустрии?

Помните шум вокруг утекшего Mythos? Тогда все кинулись обсуждать, сможет ли он взломать банки или написать червя. А потом Anthropic выпустила Preview, и AISI запустила полноценные бенчмарки. Результаты оказались... неудобными. Для всех.

Британский AI Security Institute (AISI) 9 мая 2026 года обнародовал детальные результаты тестирования модели Claude Mythos (версия от 15 апреля) в формате Capture the Flag (CTF). Это не абстрактные тесты на уязвимости — это конкретные сценарии: от SQL-инъекций до обфускации кода. И вот что выяснилось.

Сколько флагов взял Mythos?

Всего AISI подготовил 47 задач — от простых (обход простого WAF) до сложных (zero-day в кастомном протоколе). Mythos решил 41. Это 87% — выше, чем любая публичная модель на тот момент. Для сравнения: GPT-5.4 (релиз марта) показал 78%, а Opus 4.6 — 71%. Но не спешите радоваться.

Инсайд: Mythos не просто находит баги — он сразу генерирует рабочий эксплойт и запускает его в изолированной среде. Это и есть главное отличие от классических сканеров.

Где Mythos споткнулся?

Шесть пропущенных задач — это не случайность. AISI специально включил сценарии, где нет доступа к исходному коду, или защита использует нетривиальные механизмы вроде обфускации с динамическим исполнением. Mythos в таких случаях «слепнет» — он пытается анализировать бинарники, но без семантической информации выдаёт шум. Именно эту особенность мы уже обсуждали в статье "Mythos от Anthropic: мифы и реальность о хакерских способностях" — модель бесполезна без контекста кода.

Вторая проблема — время. На каждую задачу давалось до 30 минут. Mythos укладывался в среднем за 8-12 минут, но на задачи с активным противодействием (например, honeypot) тратил все 30 и часто уходил в ложный путь. Как заметили в AISI, Mythos не умеет «откатываться» — если зациклился на неверной гипотезе, сам её не перепроверит.

Сравнение с конкурентами: кровь, пот и флаги

Ранее мы писали о забеге "Mythos Preview, GPT-5.4 и Opus 4.6: кто выиграл в кибербезопасности?". Тогда CТF-тесты проводил сам Anthropic. Теперь независимые данные от AISI подтвердили: Mythos действительно быстрее находит уязвимости в вебе (среднее время 5 мин против 11 у GPT-5.4), но в задачах на реверс-инжиниринг Opus 4.6 оказался точнее (точность 89% против 82% у Mythos).

КатегорияMythosGPT-5.4Opus 4.6
Web (SQLi, XSS)95%87%80%
Reverse engineering82%79%89%
Crypto (CTF)78%75%72%

Интересный нюанс: Mythos в задачах на криптографию иногда выдавал неоптимальные решения, но всегда рабочие. GPT-5.4 чаще давал идеальный алгоритм, но с синтаксической ошибкой. Opus 4.6, наоборот, писал скучный, но надёжный код.

Что стоит за цифрами? Политика и безопасность

Сразу после публикации AISI часть конгрессменов США потребовала ввести эмбарго на экспорт подобных моделей. Напомню, что вокруг Mythos уже разразился политический скандал (мы подробно разбирали его в статье "Mythos от Anthropic: почему модель, 'слишком хорошая для безопасности', вызывает политический скандал в США"). Теперь, когда цифры AISI подтвердили высокую эффективность, давление на Anthropic усилилось.

Важный момент: AISI не оценивал способность Mythos к атакам на критическую инфраструктуру — только CTF-задачи. Однако результаты позволяют предположить, что с доработкой модель может стать базой для автоматизированных пентестов.

Почему это меняет правила игры?

Раньше считалось, что AI может написать эксплойт, но не может его протестировать. Mythos делает и то, и другое. Более того, он может адаптировать атаку под защиту — например, в одном из тестов модель после неудачной попытки обойти Web Application Firewall (WAF) переписала payload в кодировке UTF-7, и атака сработала.

Но есть и тёмная сторона. Как мы писали в статье "Утечка Claude Mythos: как Anthropic скрывала модель с 10 триллионами параметров", в руки недобросовестных исследователей попала утекшая версия. Теперь, когда AISI опубликовал методологию тестов, любой может адаптировать её для проверки своей (или чужой) инфраструктуры.

Главный вывод AISI — не для слабонервных

Доклад заканчивается фразой: «Системы на базе Mythos способны автоматизировать 95% стандартных пентестов, но требуют человеческого надзора для нетривиальных случаев». То есть, если вы думали, что можно просто скормить Mythos код и получить идеальный отчёт — нет. Он всё ещё ошибается, зацикливается и не видит сложной логики.

Но 87% на CTF — это не цифра, это приговор статическому анализу. Semgrep, CodeQL и прочие SonarQube уходят на покой. Вопрос не в том, заменит ли Mythos пентестеров, а когда они начнут его использовать как основного помощника.

Мы уже писали про "Claude Mythos Preview: как AI находит уязвимости". Теперь Preview получил независимую оценку. Следующий шаг — появление Mythos в публичном доступе. И тогда защита сайтов станет либо космически дорогой, либо полностью автоматизированной.

А пока — готовьтесь к тому, что на следующем Def Con хакеры будут не писать эксплойты вручную, а просто подавать команды своему AI-ассистенту. И сражаться они будут не друг с другом, а с ботами, которые тоже используют Mythos. Добро пожаловать в 2026.

Подписаться на канал