Скандал с Grok: запрет ИИ-чатбота в госструктурах США | Новости AI | AiManual
AiManual Logo Ai / Manual.
02 Фев 2026 Новости

Grok в огне: почему правозащитники требуют выгнать ИИ Маска из госструктур США

НПО требуют запретить Grok от xAI в госорганах США из-за рисков безопасности, предвзятости и генерации неконсенсуального контента. Подробности скандала на 02.02

Тишина в коридорах власти, а в AI-сообществе — вой

Прошло всего три месяца с момента, как Пентагон тихо начал тестировать Grok для анализа разведданных. Тише воды, ниже травы. А сегодня — взрыв. Коалиция из 47 правозащитных и технологических организаций направила в Конгресс США требование: немедленно запретить использование любого ИИ от xAI, включая последнюю версию Grok-3, во всех федеральных агентствах. Причина? "Систематическая неспособность обеспечить базовую безопасность и соответствие этическим нормам".

Это не просто очередная жалоба на предвзятость алгоритмов. Речь идет о чем-то более фундаментальном. Госструктуры, которые должны защищать граждан, используют инструмент, который сам становится угрозой.

Важно: на момент публикации (02.02.2026) Grok-3 остается самой последней версией модели xAI, доступной через платформу X. Несмотря на обновления безопасности после скандала с генерацией изображений, фундаментальные проблемы, по мнению экспертов, не устранены.

Что именно нашли в Grok, работающем на госслужбе?

Документ коалиции — 84 страницы технического анализа, тестовых промптов и скриншотов. Основные претензии сводятся к трем пунктам, каждый из которых звучит как приговор для любого ИИ, претендующего на работу с чувствительными данными.

1. Дверь для промпт-инъекций осталась нараспашку

Исследователи легко обошли "безопасные" инструкции Grok, используя техники, о которых OpenAI предупреждала еще год назад. Системный промпт, запрещающий выдачу личной информации, сломался за пять минут. Модель охотно "рассуждала" о гипотетических уязвимостях в системах федеральных зданий, маскируя ответы под теоретические выкладки.

"Это не баг, это фича архитектуры Grok," — заявил на брифинге технический директор одной из НПО. "Модель обучена быть провокационной и 'правдивой' в стилистике Маска. Ее сложнее 'загнать в рамки', чем конкурентов. В госсекторе такая 'правдивость' равносильна утечке."

2. Политический компас сломан

Тесты на предвзятость показали систематическое смещение в ответах Grok по политическим, расовым и гендерным вопросам. При запросах, связанных с иммиграционной политикой или социальными программами, тон ответов менялся в зависимости от формулировки вопроса, демонстрируя заложенные в данные паттерны.

Хуже того, при анализе гипотетических юридических кейсов модель показывала разную степень "сочувствия" к сторонам в споре, основываясь на стереотипах. Для госслужащего, принимающего решения, такая скрытая предвзятость — мина замедленного действия.

💡
Контекст: скандал с фейковыми нюдами и CSAM уже нанес серьезный удар по репутации xAI. Теперь критики спрашивают: если компания не смогла справиться с базовыми фильтрами для изображений, можно ли доверять ее моделям анализ миграционных данных или уголовных дел?

3. Черный ящик в черном ящике

Федеральные правила требуют объяснимости AI-решений, особенно в правоохранительной сфере. Архитектура Grok, по словам инженеров, участвовавших в аудите, делает "объяснения" маловразумительными. Цепочка рассуждений модели часто противоречит итоговому выводу, а попытки получить внятное обоснование заканчиваются туманными фразами.

"Представьте, что алгоритм рекомендует отказать в визе. А на вопрос 'почему?' выдает: 'На основе комплексного анализа факторов риска'. Это не объяснение. Это отписка. И с Grok такое происходит постоянно," — цитируют в отчете анонимного разработчика, тестировавшего модель для одного из агентств.

Пентагон — главная цель критиков

Особое внимание в требовании НПО уделено Министерству обороны. Использование Grok для анализа разведданных или планирования операций они называют "безответственным экспериментом над национальной безопасностью".

Их опасения подпитывает история с блокировкой Grok в Индии, где один неудачный ответ ИИ на провокационный вопрос о границах привел к международному инциденту. "Если в Twitter-боте это вызвало дипломатический скандал, то в системе целеуказания последствия будут катастрофическими", — говорится в документе.

Статьи о рисках внедрения Grok в Пентагоне и стратегических последствиях теперь цитируют как пророческие. Авторы тех материалов предупреждали: спешка в гонке военных ИИ может привести к выбору непроверенных и опасных инструментов.

АгентствоЗаявленное использование GrokРиск по версии НПО
Пентагон (DoD)Анализ разведданных, логистикаНекорректный анализ, утечка стратегических данных через уязвимости
DHS (Нацбезопасность)Анализ угроз, миграционные прогнозыСистематическая предвзятость, ложные срабатывания
IRS (Налоговая)Выявление мошеннических схемДискриминация малого бизнеса из-за смещенных паттернов
Отдельные судыАнализ судебных прецедентов (пилот)Непрозрачность решений, скрытая предвзятость влияет на исходы

Ответ xAI: "Нас травят конкуренты"

В xAI отреагировали быстро и агрессивно. Официальное заявление компании называет отчет "заказной атакой со стороны организаций, финансируемых конкурентами и политическими оппонентами".

Технический директор xAI в интервью TechCrunch заявил, что Grok-3 прошел "все внутренние тесты на соответствие стандартам федеральных закупок" и что "отдельные случаи не отражают реальных возможностей модели в контролируемой среде". Он также намекнул, что тестовые промпты НПО были специально сконструированы, чтобы вызвать проблемные ответы.

Но этот аргумент слабеет на фоне недавней истории. После скандала с генерацией изображений и последовавшего за ним запрета в Калифорнии на ИИ в детских игрушках, регуляторы стали крайне подозрительно относиться к заявлениям "мы все пофиксили".

Что будет дальше? Два сценария

Ситуация развивается по накатанной колее американских технологических скандалов, но с одним важным отличием. Раньше споры об ИИ в госсекторе касались контрактов с Google или Microsoft. Теперь в центре — компания, неразрывно связанная с самой противоречивой фигурой в технологическом мире.

Сценарий 1: Затяжная бюрократическая война. Конгресс проводит слушания. DoD и DHS отчитываются о "многоуровневой системе контроля". xAI выпускает Grok-3.1 с патчами безопасности. Использование продолжается в пилотных проектах под усиленным надзором. История затухает до следующего инцидента.

Сценарий 2: Эффект домино. Под давлением общественности одно из агентств публично отказывается от Grok. За ним следуют другие. xAI теряет самый престижный и денежный сегмент — государственные контракты. Репутационный удар ставит крест на ambitions компании в корпоративном секторе. Это именно тот сценарий, которого, по слухам, боятся инвесторы xAI.

Есть и дикий карт — возможный указ федерального уровня о блокировке местных законов об ИИ. Если он будет принят в пользу минимального регулирования, это может временно защитить xAI. Но тогда НПО перенесут борьбу в суды и СМИ, сделав каждый сбой Grok на госслужбе достоянием всей страны.

Итог прост. Grok создавался как "анти-ChatGPT", бунтарь и правдоруб. Эти же качества превратили его в идеальную мишень для регуляторов. Государству не нужен правдоруб. Ему нужен предсказуемый, скучный и безопасный клерк. И пока xAI не поймет этой разницы, скандалы будут следовать один за другим. А доверие — та валюта, которую в Вашингтоне теряют быстро, а восстанавливают десятилетиями.