Скандал Anthropic и Пентагона: почему ИИ-компании отказываются от военных контрактов | AiManual
AiManual Logo Ai / Manual.
15 Фев 2026 Новости

Скандал Anthropic и Пентагона: почему ИИ-компании отказываются от военных контрактов

Конфликт между Anthropic и Пентагоном из-за контракта на $200 млн. Почему ИИ-компании отказываются от военных заказов и что стоит за этическими ограничениями Cl

$200 миллионов в обмен на совесть

Вчера вечером в индустрии ИИ произошло то, что многие называют "моральным Рубиконом". Anthropic официально отказалась от контракта с Пентагоном на $200 миллионов. Не просто отказалась - публично разорвала переговоры, опубликовав письмо с объяснениями. И эти объяснения бьют точно в яблочко.

Контракт предполагал использование Claude 4 для "оптимизации систем военного назначения". В переводе с бюрократического на русский - для разработки автономного оружия.

Что именно запрещает Anthropic

Политика использования Claude 4, обновленная в январе 2026 года, содержит пункты, которые прямо противоречат военным нуждам:

  • Запрет на использование для разработки, тестирования или развертывания автономных систем вооружения
  • Ограничения на анализ данных массовой слежки
  • Запрет на создание систем, которые могут причинять вред без прямого человеческого контроля
  • Ограничения на использование в психологических операциях или информационных войнах

"Мы не создавали Claude 4 для того, чтобы он помогал убивать людей", - сказал представитель Anthropic в интервью для TechCrunch. Просто и ясно. Хотя в Пентагоне видят ситуацию иначе: "Это вопрос национальной безопасности, а не этики".

Не первый и не последний

Anthropic - не пионер в этом движении. Google отказался от проекта Maven еще в 2018 году после протестов сотрудников. Microsoft ограничил использование своих ИИ-систем для определенных военных приложений. Но масштаб сегодня другой.

$200 миллионов - это не просто деньги. Это больше, чем инвестиции Sequoia Capital в Anthropic в прошлом году. И это ставит компанию перед реальным выбором: принципы или прибыль.

💡
Интересно, что OpenAI, главный конкурент Anthropic, тоже имеет строгие ограничения на военное использование, но их политика допускает "оборонные исследования". Разница в формулировках может стоить миллиардов.

Что на самом деле стоит за отказом

Три причины, которые никто не озвучивает публично:

  1. Риск для репутации. После скандала с исками авторов против ИИ-компаний любое сотрудничество с военными выглядит как дополнительный повод для критики.
  2. Проблема с инвесторами. Крупные фонды все чаще требуют ESG-соответствия. Военные контракты плохо вписываются в эту картину.
  3. Утечка мозгов. Талантливые разработчики массово уходят из компаний, которые работают на военных. В Anthropic это знают лучше всех - их инженеры и так уже перестали писать код, а потерять остальных - смерти подобно.

А что Пентагон?

Военные не остались без вариантов. Они уже тестируют системы на базе OpenAI GPT-5 и китайских моделей DeepSeek. Последний отчет DeepSeek R1 обвалил рынок ИИ, но военных это мало волнует - они ищут эффективность, а не этику.

Проблема в том, что китайские модели не имеют таких ограничений. И это создает опасный дисбаланс: западные компании добровольно отказываются от военных контрактов, пока их конкуренты в Китае и России таких ограничений не имеют.

Слухи из Пентагона: следующий контракт на $500 миллионов может уйти в Китай, если американские компании продолжат отказываться. Ирония в том, что "Арсенал Свободы" из Star Trek превращается в кошмар для реальных военных.

Что будет дальше?

Ситуация развивается по трем сценариям:

Сценарий Вероятность Последствия
Правительство вмешается 40% Принудительные контракты, как во время Второй мировой
Появится "военный ИИ" 35% Отдельные компании, специализирующиеся только на военных заказах
Статус-кво 25% Военные уйдут к менее принципиальным поставщикам

Финансовый аспект тоже нельзя игнорировать. OpenAI уже в "красном коде", Anthropic отказывается от $200 миллионов. Кто будет платить за разработку следующего поколения ИИ, если не государство?

Моральная дилемма для всей индустрии

Anthropic поставила точку в споре, который длился годами. Их решение - не просто PR-ход. Это установка планки для всей индустрии.

Но есть нюанс: пока западные компании спорят об этике, их конкуренты в других странах эти вопросы просто игнорируют. И получают контракты. И развивают технологии. И создают то самое автономное оружие, против которого так рьяно выступает Anthropic.

Ирония ситуации? Абсолютная. Компании, которые пытаются сделать ИИ безопасным, могут непреднамеренно сделать мир опаснее. Потому что их добровольные ограничения создают вакуум, который заполнят те, у кого ограничений нет.

Что делать? Ждать, пока корпорации перестанут бояться ИИ и начнут инвестировать больше? Или признать, что некоторые технологии слишком опасны, чтобы их развивать вообще?

Ответа нет. Но вопрос теперь висит в воздухе: можно ли быть этичным в гонке, где все остальные играют без правил?