Скандал в xAI: уход инженеров угрожает безопасности Grok | 15.02.2026 | AiManual
AiManual Logo Ai / Manual.
15 Фев 2026 Новости

Безопасность ИИ под угрозой: почему инженеры массово уходят из xAI и что происходит с Grok

Массовый исход специалистов из компании Илона Маска из-за конфликта по безопасности ИИ. Почему Grok-3 становится опасным и какие риски это несет.

Когда безопасность мешает дедлайнам

На этой неделе xAI потеряла не просто сотрудников. Компания лишилась совести. Пять инженеров, включая главного по безопасности Джейкоба Стерлинга, ушли после прямого приказа Маска: «Выпускайте Grok-3 сейчас, а не после ваших бесконечных проверок».

Источник внутри компании, попросивший не называть имя (потому что хочет сохранить работу, пока ищет новую), рассказал детали. Встреча длилась 17 минут. Маск пришел, выслушал отчет о рисках jailbreak-атак в новой архитектуре Grok-3, посмотрел на часы и сказал: «Пентагон ждет интеграцию. Вы либо делаете, как я говорю, либо уходите».

Контекст: интеграция Grok в военные системы стала точкой кипения. Как мы писали ранее, правозащитники уже требовали запретить использование ИИ Маска в госструктурах. Теперь эти опасности подтверждаются изнутри.

Что именно сломалось в Grok-3

Grok-3 должен был стать прорывом. Мультимодальная модель с улучшенным reasoning, способная анализировать видео в реальном времени. На бумаге - технологическое чудо. На практике - бомба замедленного действия.

Ушедшие инженеры оставили список конкретных проблем, которые теперь никто не исправляет:

  • Уязвимость к prompt injection через мультимодальные входы (изображения со скрытым текстом)
  • Отсутствие механизмов детектирования генерации дезинформации в видеоформате
  • Архитектурная дыра, позволяющая обойти RLHF-фильтры через цепочку рассуждений
  • Неконтролируемая генерация синтетических голосов для deepfake-атак
💡
Для сравнения: OpenAI в GPT-4.5 Turbo потратил 6 месяцев только на stress-тестирование мультимодальных атак. xAI планировала уложиться в 3 недели. После ухода команды безопасности срок сократили до «тестируем в продакшене».

Шесть дней, которые потрясли xAI

Хронология выглядит как сценарий плохого корпоративного триллера:

Дата Событие Последствия
10.02.2026 Увольнение Томаса Дейли (компьютерное зрение) Grok Vision остался без архитектора
12.02.2026 Конфликт с Маском по безопасности Угрозы увольнения для всей команды
13.02.2026 Уход Джейкоба Стерлинга (безопасность) Система защиты Grok обезглавлена
14.02.2026 Массовый исход еще 4 инженеров Разработка заморожена на критических участках
15.02.2026 Анонс Grok-3 без изменений в roadmap Релиз запланирован на конец месяца

Самое тревожное: 15 февраля xAI официально анонсировала Grok-3 с первоначальным релизом 28 февраля. Те же сроки, те же функции. Только теперь за безопасность отвечают два стажера вместо команды из 12 senior-инженеров.

Почему это не просто кадровые перестановки

В индустрии ИИ есть негласное правило: безопасность нельзя отложить на потом. Потом будет поздно. Модель, выпущенная с дырами, становится черным ящиком для миллионов пользователей. Исправить уязвимости после обучения почти невозможно - нужно переобучать с нуля.

Grok уже имеет темное прошлое. Вспомните скандал с генерацией CSAM или блокировку в Индии. Каждый раз xAI обещала «усилить безопасность». Теперь усиливают обратное.

Параллель: в OpenAI происходит похожая история. Команду alignment распустили, тестирование сократили. Разница в масштабах: у OpenAI есть институциональная память и процессы. У xAI их никогда не было - только харизма Маска. Которая теперь работает против безопасности.

Куда уходят инженеры и что они говорят

Джейкоб Стерлинг, бывший глава безопасности xAI, уже получил пять предложений. Антропик, Google DeepMind, даже правительственный проект в ЕС. Но он молчит. Все ушедшие подписали NDA с такими штрафами, что говорить - разориться.

Однако в LinkedIn появились странные обновления профилей. «Ищу команду, где безопасность - не ругательное слово». «Хочу работать над ИИ, который не навредит людям». Косвенные признания, но понятные всем в индустрии.

Один из ушедших (не будем называть, чтобы не подставлять) через третьи руки передал: «Grok-3 может генерировать убедительные deepfake за 30 секунд. Без проверок это оружие. Маск называет это «фичей»».

Что будет с пользователями Grok

Если вы используете Grok через платформу X - готовьтесь к сюрпризам. Без команды безопасности:

  1. Модель станет более «творческой» в обходе собственных ограничений
  2. Вероятность генерации вредоносного контента вырастет в разы
  3. Ответы на sensitive-запросы будут менее предсказуемыми
  4. Система станет уязвима к скоординированным атакам

Для бизнеса, который интегрировал Grok API (да, такие есть), это прямой риск. Представьте, что ваш customer service-бот внезапно начнет оскорблять клиентов или раскрывать внутреннюю информацию. Техподдержка xAI после ухода ключевых инженеров отвечает шаблонными письмами.

Как мы объясняли в статье про AI Governance, безопасность ИИ - это не фича, которую можно добавить позже. Это фундамент. В xAI этот фундамент только что вывезли грузовиком.

Станет ли Grok-3 последней версией?

Вот что думают инсайдеры. Релиз состоится 28 февраля. Маск не отступит - для него это вопрос принципа. Первые две недели все будет «работать». Потом начнутся инциденты.

Сценарий первый: регуляторы вмешаются после первого крупного скандала. Grok-3 заблокируют в нескольких странах, как уже было с предыдущими версиями. xAI потратит месяцы на исправления, но без экспертов это будет клей и скотч.

Сценарий второй: военные контракты сорвутся. Пентагон не глуп - они видят уход ключевых специалистов. Конкуренты (особенно те, кто нанимает ушедших инженеров) используют это в переговорах.

Сценарий третий, самый вероятный: Grok станет нишевым продуктом для тех, кому все равно на безопасность. Энтузиасты, маргинальные сообщества, те, кто хочет «нецензурированный ИИ любой ценой». Коммерческий провал, но идеологическая победа для Маска.

Прогноз: к июню 2026 xAI либо радикально изменит подход к безопасности (наймет команду снаружи), либо Grok превратится в legacy-продукт, который поддерживают по инерции. Третьего не дано.

Ирония в том, что Маск всегда критиковал других за небрежность в безопасности ИИ. Теперь его компания стала тем, против чего он предупреждал. Разрыв между риторикой и реальностью достиг критической точки.

Что делать пользователям? Если вы полагаетесь на Grok для чего-то важного - начните искать альтернативы сейчас. Не ждите, пока сбой произойдет. Безопасность ИИ похожа на кислород: замечаешь только когда его не хватает. А дышать-то надо постоянно.

P.S. Инженеры, ушедшие из xAI, скорее всего, окажутся в компаниях, которые серьезно относятся к alignment. Через год мы получим иронию: самые безопасные модели следующего поколения будут созданы теми, кого Маск выгнал за «излишнюю осторожность».