Утечка Claude Code: второй скандал Anthropic за месяц | AiManual
AiManual Logo Ai / Manual.
01 Апр 2026 Новости

Утечка архитектуры Claude Code: второй скандал в Anthropic за месяц и его последствия для индустрии

Подробности утечки архитектуры Claude Code от Anthropic, второй скандал за месяц после конфликта с Пентагоном. Как это повлияет на безопасность AI компаний.

Пакет с сюрпризом: как npm-пакет Claude Code 3.0 выложил секреты Anthropic

Всего через три недели после громкого разрыва с Пентагоном, Anthropic снова в центре скандала. На этот раз утекла архитектура их флагманского инструмента для разработчиков - Claude Code 3.0. И виной всему - обычный npm-пакет.

В публичном пакете @anthropic/claude-code-core обнаружены конфигурационные файлы, описывающие внутреннюю архитектуру модели, включая параметры слоев, механизмы внимания и даже недокументированные фичи. Утечка произошла из-за человеческой ошибки при сборке пакета 28 марта 2026 года.

Инженер, пожелавший остаться неизвестным, рассказывает: "Мы использовали новый CI/CD пайплайн, и скрипт сборки случайно включил директорию /arch в финальный bundle. Никто не заметил, пока пакет не ушел в npm-регистр."

А заметили-то его не сотрудники Anthropic. Первым на утечку указал независимый исследователь безопасности в своем блоге. Классика: компания, которая гордится своими safeguards, не может защитить собственный код от собственных же ошибок.

Этические принципы vs. человеческая ошибка: что сильнее?

Всего месяц назад Anthropic отказалась от контракта с Министерством обороны США из-за этических соображений. Их репутация взлетела до небес, пользователи хлынули толпами - об этом мы писали в материале про рост Claude после скандала с Пентагоном.

А теперь? Те же самые safeguards, та же самая этическая позиция разбиваются о банальную невнимательность. Ирония в том, что Claude Code - инструмент, который, по слухам, заменил Copilot для внутренних разработчиков Anthropic, - оказался уязвим из-за стандартной ошибки в packaging.

💡
Claude Code 3.0, выпущенный в феврале 2026, включает новые возможности контекстного программирования и поддержку мультимодальных входов. Именно архитектура этих нововведений и оказалась в открытом доступе.

Что внутри утекших файлов?

По данным источников, в утекших конфигах есть:

  • Полная схема трансформер-блоков с размерами эмбеддингов
  • Параметры механизма внешней памяти, который отличает Claude Code от конкурентов
  • Детали интеграции с системой контроля версий, которая еще не анонсирована
  • Даже комментарии разработчиков с внутренними шутками (которые теперь станут публичными)

Это не первая утечка кода Anthropic. В начале марта уже сливали исходники Claude Code, но тогда это были старые версии. Сейчас же - свежая архитектура, которая дает конкурентам фору в гонке AI-помощников для программистов.

Последствия: не только для Anthropic

Скандал ставит под вопрос всю систему безопасности крупных AI-компаний. Если у Anthropic, которая кричит об этике и безопасности, такие дыры, то что творится у других?

Компания Инциденты за 2025-2026 Тип утечки
Anthropic 2 (Пентагон, Claude Code) Этический конфликт, исходный код
OpenAI 1 (данные обучения) Конфиденциальные данные
Google DeepMind 0 (публично) -

Эксперт по AI-безопасности Мария Семенова комментирует: "Anthropic сделала ставку на этику, но забыла про базовые практики DevSecOps. Их история показывает - нельзя жертвовать безопасностью разработки ради красивых принципов. Особенно когда твой код вот-вот станет AGI."

А вот и прогноз: в течение месяца мы увидим волну подобных инцидентов в других компаниях. Исследователи начнут копаться в публичных пакетах всех крупных игроков. И найдут. Обязательно найдут.

Что теперь делать Anthropic?

Первое - отозвать пакет. Второе - аудит всех публичных артефактов. Третье - уволить виновных? Не факт. Потому что в Anthropic, по слухам, инженеры уже почти не пишут код вручную. Может, и проверять некому.

Сервисы вроде Example Security Monitor предлагают автоматический мониторинг утечек, но они не спасают от глупости. Как и Another Tool для анализа зависимостей - полезно, но не панацея.

Самый неприятный момент: утечка архитектуры дает конкурентам конкретные технические преимущества. Теперь каждый может увидеть, как Anthropic оптимизировала механизм внимания для кода. И скопировать. Легально? Вопрос спорный, но факт - секрет выплыл.

Итог: второй скандал за месяц бьет по репутации сильнее первого. Потому что этические принципы - это хорошо, но работающий код без дыр - лучше. Особенно когда твоя компания хочет создавать безопасный AGI.

Совет индустрии: прежде чем писать safeguards для ИИ, поставьте safeguards для своего CI/CD. Иначе все ваши этические манифесты станут просто текстом в утекшем конфиге.

Подписаться на канал