Anthropic vs Пентагон: закон о военном производстве ломает этику ИИ | AiManual
AiManual Logo Ai / Manual.
24 Фев 2026 Новости

Anthropic против Пентагона: как закон о военном производстве может сломать этические ограничения ИИ

Конфликт Anthropic и Пентагона из-за военного ИИ: как Defense Production Act может заставить AI-компании забыть об этических ограничениях. Анализ на 24.02.2026.

Этика против национальной безопасности: старый спор в новом цифровом мире

Вы думали, что битва между принципами и патриотизмом осталась в учебниках истории? Пересмотрите. На 24 февраля 2026 года, Anthropic - та самая компания, что создала Claude 4 - стоит перед дилеммой, которая может переопределить будущее ИИ. С одной стороны - их собственные этические ограничения, вшитые в каждую строку кода. С другой - Закон о военном производстве, который Пентагон может использовать как дубину.

Для тех, кто пропустил предыдущий эпизод: в январе 2026 Anthropic публично разорвала переговоры о контракте на $200 миллионов с Пентагоном. Причина? Использование Claude 4 для разработки автономного оружия. Да, того самого, что решает, кому жить, а кому умереть, без человека в цикле.

Но теперь ситуация меняется. Пентагон, кажется, нашел лазейку. Или не лазейку, а старый, проверенный инструмент времен холодной войны.

Закон о военном производстве: аварийный ключ от сейфа с совестью

Defense Production Act (DPA) 1950 года - это не просто закон. Это швейцарский нож для правительства в кризис. Изначально созданный для мобилизации промышленности во время Корейской войны, он позволяет президенту заказывать производство товаров, приоритезировать контракты и даже контролировать распределение ресурсов.

И вот вопрос: считаются ли современные AI-модели "критически важными ресурсами" для национальной обороны? Если да, то Пентагон может просто приказать Anthropic предоставить доступ к Claude 4. Без разговоров об этике. Без обсуждений. Просто приказ.

💡
DPA уже использовался во время пандемии COVID-19 для производства медицинского оборудования. В 2024 году его применили к полупроводниковой промышленности. AI - логичный следующий шаг, особенно на фоне гонки вооружений с Китаем.

Юристы, с которыми я говорил, разделились. Одни говорят, что DPA не предназначен для принуждения к предоставлению интеллектуальной собственности в виде AI-моделей. Другие указывают на прецеденты: правительство уже заставляло компании производить все, от танков до микросхем.

Что на самом деле запрещает Claude 4 (и почему Пентагону это не нравится)

Политика использования Claude 4, обновленная в январе 2026, - это не просто список пожеланий. Это технически обеспеченные ограничения, встроенные в архитектуру модели. Вот что она не может делать, согласно публичной документации:

  • Участвовать в разработке, тестировании или развертывании автономных систем вооружения.
  • Анализировать данные массовой слежки для идентификации целей.
  • Создавать системы, которые причиняют вред без прямого и осмысленного человеческого контроля.
  • Помогать в психологических операциях, предназначенных для манипуляции населением.

Для Пентагона, который с 2025 года активно инвестирует в AI-оружие в рамках проекта "Arsenal of Freedom", эти ограничения - как шило в одном месте. Они нуждаются в именно таких возможностях для сохранения технологического превосходства. И DPA может быть их билетом к обходу этих запретов.

Интересно, что AI Alignment - философская основа этих ограничений - часто критикуется как "новая религия". Но для инженеров Anthropic это инженерная проблема: как сделать модель, которая физически не может нарушить определенные правила.

Сценарий худшего случая: когда правительство заставляет модель забыть о морали

Представьте себе: постановление суда на основе DPA требует от Anthropic предоставить "разблокированную" версию Claude 4 для Министерства обороны. Что тогда?

Вариант первый: Anthropic отказывается и идет в суд. Дело тянется годами, но в процессе правительство может заморозить активы компании или даже взять под контроль. Невероятно? В истории США были прецеденты.

Вариант второй: Anthropic подчиняется, но публично протестует. Репутация компании, построенная на "безопасном ИИ", рушится. Инвесторы бегут. Талантливые сотрудники уходят. Помните скандал 2025 года, когда сотрудники угрожали массовым уходом? Это покажется цветочками.

Вариант третий: Anthropic саботирует процесс, предоставляя намеренно испорченную модель. Но это уже киберпреступление против правительства. Не лучшая идея.

Вот что говорит бывший инженер Anthropic, пожелавший остаться анонимным: "Технически, мы можем создать версию Claude 4 без safeguards. Но это потребует переобучения модели с нуля, что стоит десятки миллионов долларов и месяцев работы. Или мы можем попытаться 'выключить' эти ограничения через backdoor, но это рискованно и может сломать модель полностью."

Что это значит для остальных: эффект домино в индустрии ИИ

Если Anthropic падет, следующей на очереди будет OpenAI с их GPT-5.3 (последняя версия на февраль 2026). Потом Google, Microsoft, Meta. Все, у кого есть большие языковые модели с этическими ограничениями.

Пентагон получит доступ к самым продвинутым AI-системам в мире. Без фильтров. Без моральных компромиссов. Для национальной безопасности - это мечта. Для этиков ИИ - кошмар.

И не думайте, что это останется в США. Китай, Россия, Европа - все последуют примеру. Гонка вооружений ИИ ускорится в разы. "Арсенал Свободы" из научной фантастики станет реальностью, но без моральных дилемм капитана Пикарда.

И что теперь? (Совет от того, кто видел, как технологии теряют душу)

Я слежу за индустрией ИИ с тех пор, когда GPT-3 казался революцией. И я видел, как технологии, созданные для блага, превращались в инструменты контроля. Совет прост: не доверяйте ни компаниям, ни правительствам. Доверяйте только открытому коду и публичным аудитам.

Если вы разработчик, требуйте от своих работодателей прозрачности в том, как используются ваши модели. Если вы пользователь, поддерживайте организации, которые борются за регулирование ИИ. Если вы инвестор - вкладывайте в компании, которые ставят этику выше прибыли. Хотя, на 2026 год, таких осталось немного.

Конфликт Anthropic и Пентагона - это не просто спор о контракте. Это тест на зрелость для всей индустрии. Сдадим ли мы свои принципы ради сиюминутной безопасности? Или найдем способ сохранить и то, и другое?

Лично я пессимист. Но я надеюсь, что ошибаюсь.

Подписаться на канал