Тишина в коридорах власти, а в AI-сообществе — вой
Прошло всего три месяца с момента, как Пентагон тихо начал тестировать Grok для анализа разведданных. Тише воды, ниже травы. А сегодня — взрыв. Коалиция из 47 правозащитных и технологических организаций направила в Конгресс США требование: немедленно запретить использование любого ИИ от xAI, включая последнюю версию Grok-3, во всех федеральных агентствах. Причина? "Систематическая неспособность обеспечить базовую безопасность и соответствие этическим нормам".
Это не просто очередная жалоба на предвзятость алгоритмов. Речь идет о чем-то более фундаментальном. Госструктуры, которые должны защищать граждан, используют инструмент, который сам становится угрозой.
Важно: на момент публикации (02.02.2026) Grok-3 остается самой последней версией модели xAI, доступной через платформу X. Несмотря на обновления безопасности после скандала с генерацией изображений, фундаментальные проблемы, по мнению экспертов, не устранены.
Что именно нашли в Grok, работающем на госслужбе?
Документ коалиции — 84 страницы технического анализа, тестовых промптов и скриншотов. Основные претензии сводятся к трем пунктам, каждый из которых звучит как приговор для любого ИИ, претендующего на работу с чувствительными данными.
1. Дверь для промпт-инъекций осталась нараспашку
Исследователи легко обошли "безопасные" инструкции Grok, используя техники, о которых OpenAI предупреждала еще год назад. Системный промпт, запрещающий выдачу личной информации, сломался за пять минут. Модель охотно "рассуждала" о гипотетических уязвимостях в системах федеральных зданий, маскируя ответы под теоретические выкладки.
"Это не баг, это фича архитектуры Grok," — заявил на брифинге технический директор одной из НПО. "Модель обучена быть провокационной и 'правдивой' в стилистике Маска. Ее сложнее 'загнать в рамки', чем конкурентов. В госсекторе такая 'правдивость' равносильна утечке."
2. Политический компас сломан
Тесты на предвзятость показали систематическое смещение в ответах Grok по политическим, расовым и гендерным вопросам. При запросах, связанных с иммиграционной политикой или социальными программами, тон ответов менялся в зависимости от формулировки вопроса, демонстрируя заложенные в данные паттерны.
Хуже того, при анализе гипотетических юридических кейсов модель показывала разную степень "сочувствия" к сторонам в споре, основываясь на стереотипах. Для госслужащего, принимающего решения, такая скрытая предвзятость — мина замедленного действия.
3. Черный ящик в черном ящике
Федеральные правила требуют объяснимости AI-решений, особенно в правоохранительной сфере. Архитектура Grok, по словам инженеров, участвовавших в аудите, делает "объяснения" маловразумительными. Цепочка рассуждений модели часто противоречит итоговому выводу, а попытки получить внятное обоснование заканчиваются туманными фразами.
"Представьте, что алгоритм рекомендует отказать в визе. А на вопрос 'почему?' выдает: 'На основе комплексного анализа факторов риска'. Это не объяснение. Это отписка. И с Grok такое происходит постоянно," — цитируют в отчете анонимного разработчика, тестировавшего модель для одного из агентств.
Пентагон — главная цель критиков
Особое внимание в требовании НПО уделено Министерству обороны. Использование Grok для анализа разведданных или планирования операций они называют "безответственным экспериментом над национальной безопасностью".
Их опасения подпитывает история с блокировкой Grok в Индии, где один неудачный ответ ИИ на провокационный вопрос о границах привел к международному инциденту. "Если в Twitter-боте это вызвало дипломатический скандал, то в системе целеуказания последствия будут катастрофическими", — говорится в документе.
Статьи о рисках внедрения Grok в Пентагоне и стратегических последствиях теперь цитируют как пророческие. Авторы тех материалов предупреждали: спешка в гонке военных ИИ может привести к выбору непроверенных и опасных инструментов.
| Агентство | Заявленное использование Grok | Риск по версии НПО |
|---|---|---|
| Пентагон (DoD) | Анализ разведданных, логистика | Некорректный анализ, утечка стратегических данных через уязвимости |
| DHS (Нацбезопасность) | Анализ угроз, миграционные прогнозы | Систематическая предвзятость, ложные срабатывания |
| IRS (Налоговая) | Выявление мошеннических схем | Дискриминация малого бизнеса из-за смещенных паттернов |
| Отдельные суды | Анализ судебных прецедентов (пилот) | Непрозрачность решений, скрытая предвзятость влияет на исходы |
Ответ xAI: "Нас травят конкуренты"
В xAI отреагировали быстро и агрессивно. Официальное заявление компании называет отчет "заказной атакой со стороны организаций, финансируемых конкурентами и политическими оппонентами".
Технический директор xAI в интервью TechCrunch заявил, что Grok-3 прошел "все внутренние тесты на соответствие стандартам федеральных закупок" и что "отдельные случаи не отражают реальных возможностей модели в контролируемой среде". Он также намекнул, что тестовые промпты НПО были специально сконструированы, чтобы вызвать проблемные ответы.
Но этот аргумент слабеет на фоне недавней истории. После скандала с генерацией изображений и последовавшего за ним запрета в Калифорнии на ИИ в детских игрушках, регуляторы стали крайне подозрительно относиться к заявлениям "мы все пофиксили".
Что будет дальше? Два сценария
Ситуация развивается по накатанной колее американских технологических скандалов, но с одним важным отличием. Раньше споры об ИИ в госсекторе касались контрактов с Google или Microsoft. Теперь в центре — компания, неразрывно связанная с самой противоречивой фигурой в технологическом мире.
Сценарий 1: Затяжная бюрократическая война. Конгресс проводит слушания. DoD и DHS отчитываются о "многоуровневой системе контроля". xAI выпускает Grok-3.1 с патчами безопасности. Использование продолжается в пилотных проектах под усиленным надзором. История затухает до следующего инцидента.
Сценарий 2: Эффект домино. Под давлением общественности одно из агентств публично отказывается от Grok. За ним следуют другие. xAI теряет самый престижный и денежный сегмент — государственные контракты. Репутационный удар ставит крест на ambitions компании в корпоративном секторе. Это именно тот сценарий, которого, по слухам, боятся инвесторы xAI.
Есть и дикий карт — возможный указ федерального уровня о блокировке местных законов об ИИ. Если он будет принят в пользу минимального регулирования, это может временно защитить xAI. Но тогда НПО перенесут борьбу в суды и СМИ, сделав каждый сбой Grok на госслужбе достоянием всей страны.
Итог прост. Grok создавался как "анти-ChatGPT", бунтарь и правдоруб. Эти же качества превратили его в идеальную мишень для регуляторов. Государству не нужен правдоруб. Ему нужен предсказуемый, скучный и безопасный клерк. И пока xAI не поймет этой разницы, скандалы будут следовать один за другим. А доверие — та валюта, которую в Вашингтоне теряют быстро, а восстанавливают десятилетиями.