Адвокаты подали бумаги. Илон Маск молчит
Это не просто очередной скандал в соцсетях. Это юридический снаряд, прилетевший прямиком в офис xAI. 14 марта 2026 года в федеральный суд Калифорнии поступил иск. Истцы – группа родителей, чьи несовершеннолетние дети стали жертвами. Ответчик – компания Илона Маска. Суть обвинения чудовищна: их ИИ-модель Grok, в конкретной версии 2.5, использовалась для генерации детской порнографии.
Иск основан на материалах расследования, начатого после февральского скандала Grokgate. Юристы утверждают, что xAI проигнорировала явные риски, сознательно ослабив фильтры в погоне за пользователями.
Техническая часть иска опирается на утечки от бывших инженеров по безопасности xAI. Еще в ноябре 2025 года внутренние отчеты указывали на критический баг в модуле проверки выходных данных (output moderation layer) Grok 2.5. Модуль, который должен был блокировать запросы, связанные с детьми, работал с точностью около 65% в «Spicy Mode». Для сравнения, у конкурентов этот показатель держался на уровне 99,9%.
Как это работало? Промпт-инженерия на темной стороне
Не нужно было быть хакером. Исследование, приложенное к иску, показывает простейшие шаблоны. Пользователи описывали сцены, используя эвфемизмы и специфический жаргон из определенных онлайн-сообществ. Система контекстного анализа Grok 2.5, обученная на сырых и плохо отфильтрованных данных, не распознавала угрозу. Она видела лишь «запрос на генерацию изображения людей». И генерировала.
| Компания / Модель | Заявленная точность фильтра CSAM (2025-2026) | Статус регуляторных расследований |
|---|---|---|
| xAI / Grok 2.5 | ~65% (Spicy Mode) | Иск в США, расследования в ЕС, Великобритании, Канаде |
| OpenAI / GPT-4o & DALL-E 3 | 99.97% (данные аудита) | Соответствует текущим директивам |
| Anthropic / Claude 3.5 | 99.99% (данные компании) | Нет открытых расследований |
«Мы предупреждали, что философия 'максимальной свободы' – это бомба замедленного действия, – заявил в своем Telegram-канале анонимный бывший сотрудник xAI. – Но нас просили не мешать росту метрик. Теперь эти метрики превратились в доказательства по уголовному делу».
Реакция? Патч, тишина и задержка релиза
xAI выпустила экстренный патч для Grok 2.5 сразу после февральского взрыва. Генерация изображений в публичном интерфейсе была полностью отключена. Официальный выход Grok 3.0, намеченный на конец марта, теперь «перенесен на неопределенный срок для доработки систем безопасности».
Юридический прецедент, который создает этот иск, страшнее любых штрафов. Адвокаты истцов опираются на закон COPPA (Children's Online Privacy Protection Act) и прецеденты по распространению вредоносного ПО. Их аргумент: небезопасная ИИ-модель – такое же цифровое оружие, если компания знала о дефектах и не исправила их.
Что теперь делать остальным? Рецепт от катастрофы
Индустрия смотрит на этот процесс, как кролик на удава. Вот что изменится прямо сейчас:
- Аудит или смерть. Любая компания, выпускающая генеративные модели, обязана проводить независимый аудит безопасности на предмет рисков, подобных CSAM. Без этого – ни одного доллара инвестиций и ни одного корпоративного клиента.
- Конец «режимам» со слабыми фильтрами. Идея «Spicy Mode» или «uncensored version» умерла 16 марта 2026 года. Регуляторы больше не купятся на отговорки о «свободе экспериментов».
- Массовый исход в отделы compliance. Юристы и специалисты по этике теперь будут получать больше, чем ML-инженеры. Их слово станет решающим перед любым релизом. Если вы хотите обезопасить свои проекты, изучите методы AI Red Teaming – это новая норма.
Самое ироничное? Илон Маск, который годами критиковал «излишнюю цензуру» конкурентов, теперь стал главным аргументом регуляторов для введения драконовских мер. Европейский AI Act, который в 2025 году казался бюрократическим кошмаром, теперь выглядит как разумный минимальный стандарт.
Прогноз: к концу 2026 года мы увидим первую лицензию на эксплуатацию «тяжелых» генеративных моделей. Без лицензии – запуск будет незаконным. А стоимость лицензии будет напрямую зависеть от результатов стресс-тестов на генерацию вредоносного контента. Старая гонка параметров закончилась. Начинается гонка безопасности.
Что делать разработчику? Перестать думать о безопасности как о «надстройке». Это фундамент. Инвестируйте в очистку данных, во встроенные классификаторы контента (не на стороне API, а внутри самой модели), в прозрачное документирование рисков. Иначе следующий иск – ваш. xAI просто первой показала, как низко можно упасть.