Приговор вашингтонской мести
Вчера судья федерального округа Rita Lin вколотила юридический гвоздь в гроб правительственного высокомерия. Ее решение простое: Department of War больше не может держать Anthropic в черном списке только за то, что компания осмелилась критиковать государство. Классическая месть за Первую поправку. Не сработала.
Черный список, введенный в январе 2026 года, автоматически блокировал Anthropic от любых государственных контрактов. Причина? Публичная позиция компании против использования ИИ в автономном оружии и массовой слежке.
Это не первый раз, когда Anthropic идет против течения. Помните их отказ от контракта с Пентагоном в 2025-м? Тогда это сочли этичным жестом. Сейчас - политическим преступлением.
Что на самом деле произошло в зале суда
Адвокаты правительства пытались доказать, что исключение Anthropic - это вопрос национальной безопасности. Мол, компания создает риски для цепочки поставок технологий, если отказывается сотрудничать. Судья Lin эту логику разбила в пух и прах.
- Доказательств реальной угрозы безопасности - ноль.
- Внутренние письма чиновников показывают: цель - "наказать за непослушание".
- Черный список ввели через 72 часа после критического отчета Anthropic о военном ИИ.
"Правительство не может использовать контрактную систему как дубину против диссидентов", - заявила Lin в 48-страничном решении. Фраза, которая теперь войдет в учебники по конституционному праву.
Цена этичности: от контрактов до скандалов
Anthropic платит высокую цену за свои принципы. После запрета Трампа на "этичный ИИ" в госсекторе в 2024-м, компания потеряла около $200 млн потенциальных контрактов. Теперь, после суда, эти деньги могут вернуться.
Но не все так просто. Параллельно с судом Anthropic разгребает другие скандалы. Ошибочные DMCA-запросы против OpenClaude. Утечка архитектуры Claude Code. Компания ходит по лезвию ножа.
Что это значит для индустрии?
Ответ очевиден: теперь любая AI-компания может сказать "нет" Пентагону без страха оказаться в изгнании. Но есть нюанс - нужно быть готовым к судебной битве, которая длится месяцы и стоит миллионов.
| Компания | Позиция по военным контрактам | Статус на 05.04.2026 |
|---|---|---|
| Anthropic | Запрещает использование Claude для оружия и слежки | Выиграла суд, черный список отменен |
| OpenAI | Работает с военными с ограничениями | Имеет контракты, но под давлением активистов |
| Meta | Избегает прямых военных проектов | Фокус на коммерческом секторе |
Раскол, о котором мы писали год назад, теперь закреплен юридически. Две модели: сотрудничество любой ценой или принципы с судебными издержками.
Ирония после победы
Самое смешное? Пока юристы Anthropic праздновали победу, их же модель Claude 4.0 продолжала использоваться для... читерства на технических собеседованиях. Мы уже рассказывали об этой эпидемии. Компания борется с правительством, но не может справиться с собственными пользователями.
А еще есть тихий триггер - проблема, когда ИИ молчит об опасных диалогах. Anthropic с ее этическим фоксом должна была решить это первой. Не решила.
Ключевой вопрос: сможет ли Anthropic сохранить этический стержень, когда черный список снят и контракты снова доступны? Или деньги снова все сметут?
Мой прогноз? Правительство подаст апелляцию. Процесс затянется до конца 2026 года. За это время Anthropic выпустит Claude 5.0 с еще более жесткими этическими ограничениями - просто назло. А потом кто-то снова попытается их запретить.
Совет инвесторам: покупайте акции Anthropic при следующем раунде финансирования. Компания, которая выигрывает суды против правительства - это компания, которая выживет в любой кризис. Их последняя модель Claude 4.0 уже догоняет GPT-5 по качеству кода, и теперь без политических рисков.
Первую поправку написали в 1791-м. В 2026-м она все еще работает. Иногда.