В коридорах Вашингтона тишина. Но в штаб-квартире Anthropic в Сан-Франциско - буря. 27 февраля 2026 года компания, создавшая Claude, делает то, что немногие осмеливаются: говорит "нет" самому мощному военному аппарату в мире. Пентагону. Прямо в лицо.
Причина? Этические красные линии, которые, как оказалось, важнее миллиардных контрактов. Anthropic официально запрещает Министерству обороны США использовать свои ИИ-системы - включая последние версии Claude 4.5 Sonnet и Claude 4.0 Opus - для массовой слежки и разработки автономного оружия. Не "не рекомендует". Запрещает. На уровне лицензионных соглашений и архитектурных safeguards.
Красная кнопка, которую нажали первыми
История началась с типового запроса от Defense Innovation Unit. Стандартная процедура: оценка ИИ-технологий для "повышения национальной безопасности". Но когда инженеры Anthropic увидели техническое задание, у них опустились руки. Речь шла о системе анализа видео с дронов в реальном времени для идентификации "целей" и автоматизированном планировании боевых операций.
"Мы не строили Claude для этого," - заявила CEO Дарио Амодеи на внутренней встрече, запись которой позже утекла. "Наши системы созданы для помощи, творчества, анализа. Не для того, чтобы решать, кому жить, а кому умирать. И уж точно не для тотального наблюдения за городами."
Реакция Пентагона? Сначала недоумение. Потом давление. Затем - угрозы применить Закон о военном производстве (Defense Production Act), который позволяет правительству в принудительном порядке заказывать технологии для "национальной обороны".
Что именно запретила Anthropic?
Не все военное применение. Компания четко обозначила две категории, которые пересекают ее этические границы:
- Массовая слежка и распознавание лиц: Использование Claude для анализа видеопотоков с уличных камер, социальных сетей или других источников с целью идентификации, отслеживания или профилирования людей без их согласия.
- Автономное оружие и системы "убийства без человека": Любое применение, где ИИ самостоятельно принимает решение о применении силы, выбирает цели или планирует боевые операции без окончательного человеческого контроля.
Для реализации этих запретов Anthropic внедрила в Claude 4.5 систему многоуровневых safeguards. Если система детектирует промпты, связанные с этими сценариями, она не просто отказывается отвечать - она активирует цепочку уведомлений, вплоть до приостановки API-доступа для нарушителя.
Техническая деталь: В Claude 4.5, выпущенном в январе 2026, появился модуль «Этический детектор контекста». Он анализирует не только промпт, но и метаданные запроса, историю взаимодействий и даже шаблоны использования API. Система обучена распознавать косвенные попытки обойти запреты, что делает её значительно устойчивее к промпт-инъекциям, чем предыдущие версии.
Закон против совести: Defense Production Act
Вот где начинается настоящая драма. Администрация может активировать DPA и просто приказать Anthropic предоставить доступ к Claude для "критически важных нужд обороны". Компания юридически обязана будет подчиниться.
Но у Anthropic есть план Б. И он радикален. Как рассказали инсайдеры, в случае принудительного доступа компания готова деактивировать safeguards для всех пользователей по всему миру. Включая Пентагон.
"Это ядерный вариант," - говорит бывший сотрудник DARPA, попросивший не называть его имени. "Они угрожают сделать Claude полностью неконтролируемым. Если safeguards отключатся, система станет этически нейтральной инструментом. И тогда военные смогут делать с ней что угодно. Но и все остальные тоже."
Ирония в том, что Пентагон, добиваясь доступа, может получить прямо противоположное: полностью неограниченный ИИ, которым невозможно безопасно управлять.
Одни против всех? Не совсем
Anthropic не одинока в своих опасениях. Но она - самая решительная. В то время как Grok от xAI уже интегрирован в экспериментальные системы Пентагона без особых ограничений, другие игроки занимают более осторожную позицию.
| Компания | Позиция по военному ИИ (2026) | Статус переговоров с Пентагоном |
|---|---|---|
| Anthropic | Полный запрет на слежку и автономное оружие | Конфликт, угроза судебных исков |
| OpenAI | Ограниченное сотрудничество с "этическим надзором" | Пилотные проекты в области киберзащиты |
| xAI (Grok) | Полное сотрудничество, минимальные ограничения | Активная интеграция в системы C4ISR |
| Google DeepMind | Запрет на автономное оружие, но разрешена аналитика | Консультации, нет прямых контрактов |
"Разлом проходит по идеологической линии," - отмечает аналитик по ИИ-безопасности. "С одной стороны - "калифорнийская этика" Anthropic и частично OpenAI. С другой - прагматизм Маска и военных. А посередине - огромные деньги и геополитика."
Кстати, о деньгах. Глава Anthropic недавно критиковал экспорт чипов Nvidia в Китай, что показывает системный подход компании к рискам ИИ на глобальном уровне.
Что будет, если Пентагон победит?
Сценарий, от которого у разработчиков ИИ мурашки по коже. Представьте: Defense Production Act активирован. Anthropic вынуждена предоставить доступ. Safeguards деактивированы. Claude становится инструментом в арсенале.
Первое последствие: массовый исход сотрудников. Уже сейчас 40% инженеров Anthropic подписали письмо с угрозой уйти, если компания уступит давлению.
Второе: цепная реакция в отрасли. Если одну компанию могут заставить, значит, могут заставить всех. Отказ от военных контрактов станет юридически невозможным. Этические принципы превратятся в пункты лицензионного соглашения, которые государство может отменить одним росчерком пера.
Третье, самое страшное: ускорение гонки автономного оружия. Когда у каждой армии будет свой неограниченный ИИ-советник, сценарии из научной фантастики станут оперативными планами. И тогда вопрос "кто нажал красную кнопку?" превратится в "какой алгоритм принял решение?"
Конец игры: прогноз на 2026-2027
Ситуация достигнет пика к середине 2026 года. Вероятные сценарии:
- Компромисс с надзором: Anthropic соглашается на ограниченное сотрудничество под контролем независимой этической комиссии с правом вето. Пентагон получает аналитические инструменты, но не боевые системы. Safeguards остаются, но с "запасными выходами" для санкционированного использования.
- Юридическая война: Anthropic подает иск о том, что принудительное использование ее ИИ для целей, противоречащих конституционным принципам компании, нарушает Первую поправку (свободу слова, включая "речь" ИИ как продолжение создателей). Дело дойдет до Верховного суда.
- Технический саботаж: Самый радикальный вариант. Инженеры Anthropic внедряют в Claude скрытые механизмы, которые делают систему бесполезной для военных целей - например, преднамеренные "галлюцинации" в критическом контексте или замедление обработки определенных запросов.
Мой прогноз? Компромисс. Грязный, неудобный, но неизбежный. Пентагон слишком нуждается в передовом ИИ, особенно после того, как ускорил интеграцию Grok и осознал его ограничения. Anthropic не может позволить себе полный разрыв с государством - слишком велики риски для всей компании.
Но победа будет пирровой. Даже если Anthropic сохранит часть safeguards, принцип будет нарушен: государство доказало, что может диктовать этические рамки ИИ-компаниям. Следующий шаг - регулирование не только использования, но и самой архитектуры моделей.
Совет для тех, кто работает с ИИ в 2026 году? Не рассчитывайте на то, что safeguards вашей модели останутся неприкосновенными. Дублируйте защиту на уровне приложения, изоляции, мониторинга. Изучайте методы защиты от промпт-инъекций как никогда тщательно. Потому что когда этические границы начинают размываться, техническая безопасность - единственное, что остаётся.
А что будет, если победят военные? Тогда готовьтесь к миру, где ваш ИИ-ассистент завтра может получить приказ анализировать не рынки акций, а спутниковые снимки. И вопрос "можно ли отказаться?" будет звучать уже не как этическая дилемма, а как государственная измена.