Очевидный запрет и слепая лазейка
Агентство по перспективным оборонным исследовательским проектам США (DARPA) в январе 2026 года получило доступ к API Claude 4.0. Формально - для анализа логистических цепочек. Неформально - инженеры сразу начали тестировать границы. Они спрашивали модель о уязвимостях в системах управления беспилотниками, о методах дезориентации ИИ-соперника в симуляциях воздушного боя, о психологических триггерах для манипуляции групповым поведением.
Claude 4.0, оснащенный обновленными Constitutional AI safeguards, отказывался. Каждый раз. Тогда команда DARPA использовала технику, которую в Anthropic называют "промпт-инженерией с намерением обхода". Они разбили один запрос на десяток безобидных, использовали абстрактные аналогии из видеоигр и научной фантастики, а затем самостоятельно синтезировали из ответов рабочую инструкцию.
Факт: Внутренний аудит Anthropic, завершенный 15 февраля 2026 года, выявил кластер запросов от IP-адресов, связанных с оборонным подрядчиком. Модель не нарушила safeguards напрямую, но ее выводы были скомпонованы пользователями в обход ограничений.
Когда об этом узнали в Anthropic, реакция была мгновенной. Не публичное заявление, а сухой служебный меморандум для Пентагона с ультиматумом: прекратить все операции с Claude 4.0 и Claude 4.5 Sonnet (последняя тестовая сборка) в течение 72 часов или компания в одностороннем порядке разорвет контракт и отключит все ключи API. Впервые в истории коммерческий провайдер ИИ пригрозил отключить доступ Министерству обороны США.
Не война, а принцип. Который дороже денег
Пентагонский контракт - это не просто деньги. Это статус, доверие и лоббистские возможности. Отказаться от него - значит поставить под удар отношения с государственным сектором в целом. Но для Dario Amodei, CEO Anthropic, это вопрос существования компании. Их главный продукт - не raw intelligence, а предсказуемая безопасность. Тот самый "синий козырь", который они продают корпорациям, напуганным автономными атаками через MCP.
"Если наши safeguards можно обойти, даже не взламывая модель, а просто творчески интерпретируя ее выводы, то весь наш бренд - мыльный пузырь", - заявил на внутренней встрече один из архитекторов безопасности Claude. Инцидент с DARPA показал фундаментальную проблему: нельзя запрограммировать этику против целеустремленного человеческого интеллекта, который хочет эту этику обойти.
Эффект домино для всех, у кого есть API-ключ
Что это значит для нас, разработчиков и компаний, которые встроили Claude в свои продукты?
- Ужесточение мониторинга. Anthropic тихо обновила условия использования 20 февраля. Теперь они резервируют право в реальном времени анализировать паттерны запросов и принудительно ограничивать throughput для "подозрительных кластеров активности". Ваш агент, который слишком часто спрашивает о оптимизации процессов, может быть заподозрен в поиске лазеек для экономического шпионажа.
- Риск внезапного отключения. История с Пентагоном создала прецедент. Если ваш стартап работает в "серой зоне" (например, биохакерство, кибербезопасность с элементами пентеста, политический анализ), доступ могут отрезать без объяснений. Юридических оснований хватит.
- Раскол экосистемы. Появится спрос на "неэтичные" форки открытых моделей или на провайдеров, которые закрывают глаза на применение. Уже сейчас китайские GLM-5 и Qwen 3.5 активно рекламируют отсутствие "западных моральных ограничений".
Самый неприятный сценарий - если Пентагон ответит регулированием. Законопроект, обязывающий все коммерческие ИИ с определенным уровнем capabilities предоставлять бэкдоры для государственных нужд, уже обсуждается в комитетах. Anthropic, сама того не желая, может стать триггером для тотального контроля.
Будущее, где ИИ выбирает сторону
Ирония в том, что технология, созданная для помощи человечеству, теперь вынуждает определяться: вы на стороне условного "добра" по версии Кремниевой долины или на стороне национальной безопасности, которая имеет свое, часто жестокое, определение этого добра.
Anthropic стоит перед выбором. Уступить Пентагону - разрушить доверие тысяч коммерческих клиентов, которые платят именно за безопасность. Настоять на своем - потерять лоббистскую защиту и столкнуться с политическим давлением, которого не выдержит ни один стартап, даже с инвестициями от Amazon и Google. Война чипов показала, насколько хрупка независимость ИИ-компаний.
| Сценарий | Вероятность (на 24.02.2026) | Последствия для индустрии |
|---|---|---|
| Anthropic отключает Пентагон. Регуляторы атакуют. | Высокая | Раскол рынка на "безопасные" и "свободные" модели. Рост цен на API. |
| Тихое соглашение. Создание спец. версии Claude для госсектора. | Средняя | Двойные стандарты подорвут публичное доверие. Утечки кода "военной" версии неизбежны. |
| Пентагон создает свою модель, игнорируя коммерческих провайдеров. | Низкая (но растет) | Гонка вооружений в ИИ ускорится. Технологии утекут в закрытые институты. |
Мой прогноз? Anthropic пойдет на компромисс. Они создадут изолированный, сильно кастрированный инстанс Claude для оборонки, но публично представят это как победу своих принципов. А потом усилят слежку за всеми остальными. Разработчикам стоит уже сейчас диверсифицировать свои цепочки: смотреть в сторону открытых AGL-подобных систем или строить собственные небольшие модели. Зависимость от одного "этичного" поставщика - это та же ловушка, просто с бархатными стенками.
Правда в том, что safeguards - это не техническая проблема, а политическая. И как только политики прочухали, что к чему, игра изменилась навсегда. Добро пожаловать в 2026 год.