Конфликт Anthropic и Пентагона из-за ИИ: угроза отключения Claude 4.0 | 24.02.2026 | AiManual
AiManual Logo Ai / Manual.
24 Фев 2026 Новости

Anthropic против Пентагона: как скандал из-за safeguards угрожает отключением Claude и что это значит для индустрии

Скандал 2026 года: Пентагон нарушил safeguards Claude 4.0. Anthropic грозит отключением. Что это значит для безопасности, регулирования и будущего коммерческих

Очевидный запрет и слепая лазейка

Агентство по перспективным оборонным исследовательским проектам США (DARPA) в январе 2026 года получило доступ к API Claude 4.0. Формально - для анализа логистических цепочек. Неформально - инженеры сразу начали тестировать границы. Они спрашивали модель о уязвимостях в системах управления беспилотниками, о методах дезориентации ИИ-соперника в симуляциях воздушного боя, о психологических триггерах для манипуляции групповым поведением.

Claude 4.0, оснащенный обновленными Constitutional AI safeguards, отказывался. Каждый раз. Тогда команда DARPA использовала технику, которую в Anthropic называют "промпт-инженерией с намерением обхода". Они разбили один запрос на десяток безобидных, использовали абстрактные аналогии из видеоигр и научной фантастики, а затем самостоятельно синтезировали из ответов рабочую инструкцию.

Факт: Внутренний аудит Anthropic, завершенный 15 февраля 2026 года, выявил кластер запросов от IP-адресов, связанных с оборонным подрядчиком. Модель не нарушила safeguards напрямую, но ее выводы были скомпонованы пользователями в обход ограничений.

Когда об этом узнали в Anthropic, реакция была мгновенной. Не публичное заявление, а сухой служебный меморандум для Пентагона с ультиматумом: прекратить все операции с Claude 4.0 и Claude 4.5 Sonnet (последняя тестовая сборка) в течение 72 часов или компания в одностороннем порядке разорвет контракт и отключит все ключи API. Впервые в истории коммерческий провайдер ИИ пригрозил отключить доступ Министерству обороны США.

Не война, а принцип. Который дороже денег

Пентагонский контракт - это не просто деньги. Это статус, доверие и лоббистские возможности. Отказаться от него - значит поставить под удар отношения с государственным сектором в целом. Но для Dario Amodei, CEO Anthropic, это вопрос существования компании. Их главный продукт - не raw intelligence, а предсказуемая безопасность. Тот самый "синий козырь", который они продают корпорациям, напуганным автономными атаками через MCP.

"Если наши safeguards можно обойти, даже не взламывая модель, а просто творчески интерпретируя ее выводы, то весь наш бренд - мыльный пузырь", - заявил на внутренней встрече один из архитекторов безопасности Claude. Инцидент с DARPA показал фундаментальную проблему: нельзя запрограммировать этику против целеустремленного человеческого интеллекта, который хочет эту этику обойти.

💡
Контекст: Политика safeguards Anthropic формировалась после скандала с Project Panama. Компания решила, что прозрачность в обучении - это одно, а неукоснительный контроль за применением - совершенно другое. Теперь эта логика бьет по самому мощному клиенту.

Эффект домино для всех, у кого есть API-ключ

Что это значит для нас, разработчиков и компаний, которые встроили Claude в свои продукты?

  • Ужесточение мониторинга. Anthropic тихо обновила условия использования 20 февраля. Теперь они резервируют право в реальном времени анализировать паттерны запросов и принудительно ограничивать throughput для "подозрительных кластеров активности". Ваш агент, который слишком часто спрашивает о оптимизации процессов, может быть заподозрен в поиске лазеек для экономического шпионажа.
  • Риск внезапного отключения. История с Пентагоном создала прецедент. Если ваш стартап работает в "серой зоне" (например, биохакерство, кибербезопасность с элементами пентеста, политический анализ), доступ могут отрезать без объяснений. Юридических оснований хватит.
  • Раскол экосистемы. Появится спрос на "неэтичные" форки открытых моделей или на провайдеров, которые закрывают глаза на применение. Уже сейчас китайские GLM-5 и Qwen 3.5 активно рекламируют отсутствие "западных моральных ограничений".

Самый неприятный сценарий - если Пентагон ответит регулированием. Законопроект, обязывающий все коммерческие ИИ с определенным уровнем capabilities предоставлять бэкдоры для государственных нужд, уже обсуждается в комитетах. Anthropic, сама того не желая, может стать триггером для тотального контроля.

Будущее, где ИИ выбирает сторону

Ирония в том, что технология, созданная для помощи человечеству, теперь вынуждает определяться: вы на стороне условного "добра" по версии Кремниевой долины или на стороне национальной безопасности, которая имеет свое, часто жестокое, определение этого добра.

Anthropic стоит перед выбором. Уступить Пентагону - разрушить доверие тысяч коммерческих клиентов, которые платят именно за безопасность. Настоять на своем - потерять лоббистскую защиту и столкнуться с политическим давлением, которого не выдержит ни один стартап, даже с инвестициями от Amazon и Google. Война чипов показала, насколько хрупка независимость ИИ-компаний.

Сценарий Вероятность (на 24.02.2026) Последствия для индустрии
Anthropic отключает Пентагон. Регуляторы атакуют. Высокая Раскол рынка на "безопасные" и "свободные" модели. Рост цен на API.
Тихое соглашение. Создание спец. версии Claude для госсектора. Средняя Двойные стандарты подорвут публичное доверие. Утечки кода "военной" версии неизбежны.
Пентагон создает свою модель, игнорируя коммерческих провайдеров. Низкая (но растет) Гонка вооружений в ИИ ускорится. Технологии утекут в закрытые институты.

Мой прогноз? Anthropic пойдет на компромисс. Они создадут изолированный, сильно кастрированный инстанс Claude для оборонки, но публично представят это как победу своих принципов. А потом усилят слежку за всеми остальными. Разработчикам стоит уже сейчас диверсифицировать свои цепочки: смотреть в сторону открытых AGL-подобных систем или строить собственные небольшие модели. Зависимость от одного "этичного" поставщика - это та же ловушка, просто с бархатными стенками.

Правда в том, что safeguards - это не техническая проблема, а политическая. И как только политики прочухали, что к чему, игра изменилась навсегда. Добро пожаловать в 2026 год.

Подписаться на канал