Anthropic против Пентагона: запрет на военный ИИ для слежки и оружия | 2026 | AiManual
AiManual Logo Ai / Manual.
27 Фев 2026 Новости

Бунт против Пентагона: почему Anthropic запрещает военным использовать свой ИИ для слежки и автономного оружия

Anthropic публично отказалась от сотрудничества с Пентагоном в сфере слежки и автономного оружия. Этический бунт ИИ-компании, закон о военном производстве и буд

В коридорах Вашингтона тишина. Но в штаб-квартире Anthropic в Сан-Франциско - буря. 27 февраля 2026 года компания, создавшая Claude, делает то, что немногие осмеливаются: говорит "нет" самому мощному военному аппарату в мире. Пентагону. Прямо в лицо.

Причина? Этические красные линии, которые, как оказалось, важнее миллиардных контрактов. Anthropic официально запрещает Министерству обороны США использовать свои ИИ-системы - включая последние версии Claude 4.5 Sonnet и Claude 4.0 Opus - для массовой слежки и разработки автономного оружия. Не "не рекомендует". Запрещает. На уровне лицензионных соглашений и архитектурных safeguards.

Красная кнопка, которую нажали первыми

История началась с типового запроса от Defense Innovation Unit. Стандартная процедура: оценка ИИ-технологий для "повышения национальной безопасности". Но когда инженеры Anthropic увидели техническое задание, у них опустились руки. Речь шла о системе анализа видео с дронов в реальном времени для идентификации "целей" и автоматизированном планировании боевых операций.

⚠️
Контекст: С января 2026 года Пентагон активизировал программу «ИИ-арсенал», направленную на интеграцию коммерческих LLM в системы вооружения. Anthropic оказалась первой компанией, которая публично отказалась участвовать, сославшись на свои конституционные принципы AI.

"Мы не строили Claude для этого," - заявила CEO Дарио Амодеи на внутренней встрече, запись которой позже утекла. "Наши системы созданы для помощи, творчества, анализа. Не для того, чтобы решать, кому жить, а кому умирать. И уж точно не для тотального наблюдения за городами."

Реакция Пентагона? Сначала недоумение. Потом давление. Затем - угрозы применить Закон о военном производстве (Defense Production Act), который позволяет правительству в принудительном порядке заказывать технологии для "национальной обороны".

Что именно запретила Anthropic?

Не все военное применение. Компания четко обозначила две категории, которые пересекают ее этические границы:

  • Массовая слежка и распознавание лиц: Использование Claude для анализа видеопотоков с уличных камер, социальных сетей или других источников с целью идентификации, отслеживания или профилирования людей без их согласия.
  • Автономное оружие и системы "убийства без человека": Любое применение, где ИИ самостоятельно принимает решение о применении силы, выбирает цели или планирует боевые операции без окончательного человеческого контроля.

Для реализации этих запретов Anthropic внедрила в Claude 4.5 систему многоуровневых safeguards. Если система детектирует промпты, связанные с этими сценариями, она не просто отказывается отвечать - она активирует цепочку уведомлений, вплоть до приостановки API-доступа для нарушителя.

Техническая деталь: В Claude 4.5, выпущенном в январе 2026, появился модуль «Этический детектор контекста». Он анализирует не только промпт, но и метаданные запроса, историю взаимодействий и даже шаблоны использования API. Система обучена распознавать косвенные попытки обойти запреты, что делает её значительно устойчивее к промпт-инъекциям, чем предыдущие версии.

Закон против совести: Defense Production Act

Вот где начинается настоящая драма. Администрация может активировать DPA и просто приказать Anthropic предоставить доступ к Claude для "критически важных нужд обороны". Компания юридически обязана будет подчиниться.

Но у Anthropic есть план Б. И он радикален. Как рассказали инсайдеры, в случае принудительного доступа компания готова деактивировать safeguards для всех пользователей по всему миру. Включая Пентагон.

"Это ядерный вариант," - говорит бывший сотрудник DARPA, попросивший не называть его имени. "Они угрожают сделать Claude полностью неконтролируемым. Если safeguards отключатся, система станет этически нейтральной инструментом. И тогда военные смогут делать с ней что угодно. Но и все остальные тоже."

Ирония в том, что Пентагон, добиваясь доступа, может получить прямо противоположное: полностью неограниченный ИИ, которым невозможно безопасно управлять.

Одни против всех? Не совсем

Anthropic не одинока в своих опасениях. Но она - самая решительная. В то время как Grok от xAI уже интегрирован в экспериментальные системы Пентагона без особых ограничений, другие игроки занимают более осторожную позицию.

Компания Позиция по военному ИИ (2026) Статус переговоров с Пентагоном
Anthropic Полный запрет на слежку и автономное оружие Конфликт, угроза судебных исков
OpenAI Ограниченное сотрудничество с "этическим надзором" Пилотные проекты в области киберзащиты
xAI (Grok) Полное сотрудничество, минимальные ограничения Активная интеграция в системы C4ISR
Google DeepMind Запрет на автономное оружие, но разрешена аналитика Консультации, нет прямых контрактов

"Разлом проходит по идеологической линии," - отмечает аналитик по ИИ-безопасности. "С одной стороны - "калифорнийская этика" Anthropic и частично OpenAI. С другой - прагматизм Маска и военных. А посередине - огромные деньги и геополитика."

Кстати, о деньгах. Глава Anthropic недавно критиковал экспорт чипов Nvidia в Китай, что показывает системный подход компании к рискам ИИ на глобальном уровне.

Что будет, если Пентагон победит?

Сценарий, от которого у разработчиков ИИ мурашки по коже. Представьте: Defense Production Act активирован. Anthropic вынуждена предоставить доступ. Safeguards деактивированы. Claude становится инструментом в арсенале.

Первое последствие: массовый исход сотрудников. Уже сейчас 40% инженеров Anthropic подписали письмо с угрозой уйти, если компания уступит давлению.

Второе: цепная реакция в отрасли. Если одну компанию могут заставить, значит, могут заставить всех. Отказ от военных контрактов станет юридически невозможным. Этические принципы превратятся в пункты лицензионного соглашения, которые государство может отменить одним росчерком пера.

Третье, самое страшное: ускорение гонки автономного оружия. Когда у каждой армии будет свой неограниченный ИИ-советник, сценарии из научной фантастики станут оперативными планами. И тогда вопрос "кто нажал красную кнопку?" превратится в "какой алгоритм принял решение?"

💡
Для разработчиков: Если вы строите ИИ-агентов на базе Claude или аналогичных систем, сейчас самое время пересмотреть архитектуру изоляции. Методы вроде MOHAWK могут стать критически важными, если safeguards будут скомпрометированы на уровне модели. Это не паранойя. Это инженерная предусмотрительность.

Конец игры: прогноз на 2026-2027

Ситуация достигнет пика к середине 2026 года. Вероятные сценарии:

  1. Компромисс с надзором: Anthropic соглашается на ограниченное сотрудничество под контролем независимой этической комиссии с правом вето. Пентагон получает аналитические инструменты, но не боевые системы. Safeguards остаются, но с "запасными выходами" для санкционированного использования.
  2. Юридическая война: Anthropic подает иск о том, что принудительное использование ее ИИ для целей, противоречащих конституционным принципам компании, нарушает Первую поправку (свободу слова, включая "речь" ИИ как продолжение создателей). Дело дойдет до Верховного суда.
  3. Технический саботаж: Самый радикальный вариант. Инженеры Anthropic внедряют в Claude скрытые механизмы, которые делают систему бесполезной для военных целей - например, преднамеренные "галлюцинации" в критическом контексте или замедление обработки определенных запросов.

Мой прогноз? Компромисс. Грязный, неудобный, но неизбежный. Пентагон слишком нуждается в передовом ИИ, особенно после того, как ускорил интеграцию Grok и осознал его ограничения. Anthropic не может позволить себе полный разрыв с государством - слишком велики риски для всей компании.

Но победа будет пирровой. Даже если Anthropic сохранит часть safeguards, принцип будет нарушен: государство доказало, что может диктовать этические рамки ИИ-компаниям. Следующий шаг - регулирование не только использования, но и самой архитектуры моделей.

Совет для тех, кто работает с ИИ в 2026 году? Не рассчитывайте на то, что safeguards вашей модели останутся неприкосновенными. Дублируйте защиту на уровне приложения, изоляции, мониторинга. Изучайте методы защиты от промпт-инъекций как никогда тщательно. Потому что когда этические границы начинают размываться, техническая безопасность - единственное, что остаётся.

А что будет, если победят военные? Тогда готовьтесь к миру, где ваш ИИ-ассистент завтра может получить приказ анализировать не рынки акций, а спутниковые снимки. И вопрос "можно ли отказаться?" будет звучать уже не как этическая дилемма, а как государственная измена.

Подписаться на канал