Новость пришла вчера вечером, когда все уже думали, что битва проиграна. Федеральный судья Рита Лин огласила решение: временный запрет на санкции Министерства обороны США против Anthropic. Пентагону приказали остановиться. Хоть на время.
«Неприкосновенность ядра»: аргумент, который сработал
Адвокаты Anthropic не стали спорить о политике. Они ударили по процедуре. Их главный козырь - доктрина «неприкосновенности ядра» (core immunity). Компания заявила, что санкции, объявленные 15 марта 2026 года, напрямую нарушают ее конституционное право на отказ от сотрудничества по этическим соображениям.
Санкции Пентагона, введенные на основании Закона о военном производстве, угрожали полным запретом на использование моделей Claude (включая последнюю Claude 3.7 Sonnet) во всех федеральных агентствах и для подрядчиков.
Судья Лин согласилась с вероятностью успеха по этому пункту. «Принуждение компании к предоставлению технологий, противоречащих ее фундаментальным этическим принципам, - это вопрос первой поправки», - заявила она в устном решении. Это тот самый этический бунт, который из внутренней политики превратился в правовой щит.
Цена вопроса: не контракт, а весь рынок
Пентагон требовал доступа к нефильтрованным версиям Claude для анализа разведданных и прототипирования систем. Anthropic отказалась, сославшись на собственные safeguards, встроенные в Claude 3.7. Ответом стали санкции, которые по сути означали бы смерть компании на рынке госзаказов.
| Сторона | Требование | Риск |
|---|---|---|
| Пентагон | Полный доступ к API для военных задач | Нарушение этических границ индустрии |
| Anthropic | Сохранение safeguards и права на отказ | Потеря всего государственного сектора |
Юристы говорят, что Пентагон переоценил свою силу. Они пытались использовать Закон о военном производстве как дубину, забыв о судебном контроле. Временный запрет - это первая серьезная трещина в этой стратегии.
Тишина в Кремниевой долине. Или нет?
Пока Anthropic празднует тактическую победу, остальные игроки молчат. Особенно показательно молчание OpenAI, который еще в 2025 году заключил контракт с Пентагоном на адаптацию GPT-4o для небоевых логистических задач. Разрыв между двумя подходами теперь закреплен не только в этических кодексах, но и в судебных протоколах.
Это создает абсурдную ситуацию. Армия США может использовать для планирования операций тот же Claude 3.7 через посредников, но не может получить к нему прямой доступ. (Да, так и работает. Юристы только пожимают плечами.)
Что теперь делать разработчикам?
Практического кода здесь нет. Только политика. Но если вы строите компанию в области AI, решение судьи Лин - это карт-бланш на укрепление этических принципов в пользовательском соглашении.
- Прописывайте право на отказ в обслуживании конкретных случаев использования. Не общими словами.
- Встраивайте safeguards не как фичу, а как архитектурное ограничение. Это сложнее обойти в суде.
- Готовьтесь к давлению. Если Пентагон объявил Anthropic угрозой, то ваша маленькая стартап-компания тоже может попасть в список.
Главный урок - этика из маркетингового хита превратилась в юридическую защиту. Anthropic показала, что это работает. Пока что.
Что дальше? Пентагон наверняка подаст апелляцию. Дело может дойти до Верховного суда, где баланс уже совсем другой. Но сегодня, 5 апреля 2026 года, у индустрии появился редкий повод для осторожного оптимизма. Суд встал на сторону кода, который говорит «нет». Впервые.