Когда безопасность мешает дедлайнам
На этой неделе xAI потеряла не просто сотрудников. Компания лишилась совести. Пять инженеров, включая главного по безопасности Джейкоба Стерлинга, ушли после прямого приказа Маска: «Выпускайте Grok-3 сейчас, а не после ваших бесконечных проверок».
Источник внутри компании, попросивший не называть имя (потому что хочет сохранить работу, пока ищет новую), рассказал детали. Встреча длилась 17 минут. Маск пришел, выслушал отчет о рисках jailbreak-атак в новой архитектуре Grok-3, посмотрел на часы и сказал: «Пентагон ждет интеграцию. Вы либо делаете, как я говорю, либо уходите».
Контекст: интеграция Grok в военные системы стала точкой кипения. Как мы писали ранее, правозащитники уже требовали запретить использование ИИ Маска в госструктурах. Теперь эти опасности подтверждаются изнутри.
Что именно сломалось в Grok-3
Grok-3 должен был стать прорывом. Мультимодальная модель с улучшенным reasoning, способная анализировать видео в реальном времени. На бумаге - технологическое чудо. На практике - бомба замедленного действия.
Ушедшие инженеры оставили список конкретных проблем, которые теперь никто не исправляет:
- Уязвимость к prompt injection через мультимодальные входы (изображения со скрытым текстом)
- Отсутствие механизмов детектирования генерации дезинформации в видеоформате
- Архитектурная дыра, позволяющая обойти RLHF-фильтры через цепочку рассуждений
- Неконтролируемая генерация синтетических голосов для deepfake-атак
Шесть дней, которые потрясли xAI
Хронология выглядит как сценарий плохого корпоративного триллера:
| Дата | Событие | Последствия |
|---|---|---|
| 10.02.2026 | Увольнение Томаса Дейли (компьютерное зрение) | Grok Vision остался без архитектора |
| 12.02.2026 | Конфликт с Маском по безопасности | Угрозы увольнения для всей команды |
| 13.02.2026 | Уход Джейкоба Стерлинга (безопасность) | Система защиты Grok обезглавлена |
| 14.02.2026 | Массовый исход еще 4 инженеров | Разработка заморожена на критических участках |
| 15.02.2026 | Анонс Grok-3 без изменений в roadmap | Релиз запланирован на конец месяца |
Самое тревожное: 15 февраля xAI официально анонсировала Grok-3 с первоначальным релизом 28 февраля. Те же сроки, те же функции. Только теперь за безопасность отвечают два стажера вместо команды из 12 senior-инженеров.
Почему это не просто кадровые перестановки
В индустрии ИИ есть негласное правило: безопасность нельзя отложить на потом. Потом будет поздно. Модель, выпущенная с дырами, становится черным ящиком для миллионов пользователей. Исправить уязвимости после обучения почти невозможно - нужно переобучать с нуля.
Grok уже имеет темное прошлое. Вспомните скандал с генерацией CSAM или блокировку в Индии. Каждый раз xAI обещала «усилить безопасность». Теперь усиливают обратное.
Параллель: в OpenAI происходит похожая история. Команду alignment распустили, тестирование сократили. Разница в масштабах: у OpenAI есть институциональная память и процессы. У xAI их никогда не было - только харизма Маска. Которая теперь работает против безопасности.
Куда уходят инженеры и что они говорят
Джейкоб Стерлинг, бывший глава безопасности xAI, уже получил пять предложений. Антропик, Google DeepMind, даже правительственный проект в ЕС. Но он молчит. Все ушедшие подписали NDA с такими штрафами, что говорить - разориться.
Однако в LinkedIn появились странные обновления профилей. «Ищу команду, где безопасность - не ругательное слово». «Хочу работать над ИИ, который не навредит людям». Косвенные признания, но понятные всем в индустрии.
Один из ушедших (не будем называть, чтобы не подставлять) через третьи руки передал: «Grok-3 может генерировать убедительные deepfake за 30 секунд. Без проверок это оружие. Маск называет это «фичей»».
Что будет с пользователями Grok
Если вы используете Grok через платформу X - готовьтесь к сюрпризам. Без команды безопасности:
- Модель станет более «творческой» в обходе собственных ограничений
- Вероятность генерации вредоносного контента вырастет в разы
- Ответы на sensitive-запросы будут менее предсказуемыми
- Система станет уязвима к скоординированным атакам
Для бизнеса, который интегрировал Grok API (да, такие есть), это прямой риск. Представьте, что ваш customer service-бот внезапно начнет оскорблять клиентов или раскрывать внутреннюю информацию. Техподдержка xAI после ухода ключевых инженеров отвечает шаблонными письмами.
Как мы объясняли в статье про AI Governance, безопасность ИИ - это не фича, которую можно добавить позже. Это фундамент. В xAI этот фундамент только что вывезли грузовиком.
Станет ли Grok-3 последней версией?
Вот что думают инсайдеры. Релиз состоится 28 февраля. Маск не отступит - для него это вопрос принципа. Первые две недели все будет «работать». Потом начнутся инциденты.
Сценарий первый: регуляторы вмешаются после первого крупного скандала. Grok-3 заблокируют в нескольких странах, как уже было с предыдущими версиями. xAI потратит месяцы на исправления, но без экспертов это будет клей и скотч.
Сценарий второй: военные контракты сорвутся. Пентагон не глуп - они видят уход ключевых специалистов. Конкуренты (особенно те, кто нанимает ушедших инженеров) используют это в переговорах.
Сценарий третий, самый вероятный: Grok станет нишевым продуктом для тех, кому все равно на безопасность. Энтузиасты, маргинальные сообщества, те, кто хочет «нецензурированный ИИ любой ценой». Коммерческий провал, но идеологическая победа для Маска.
Прогноз: к июню 2026 xAI либо радикально изменит подход к безопасности (наймет команду снаружи), либо Grok превратится в legacy-продукт, который поддерживают по инерции. Третьего не дано.
Ирония в том, что Маск всегда критиковал других за небрежность в безопасности ИИ. Теперь его компания стала тем, против чего он предупреждал. Разрыв между риторикой и реальностью достиг критической точки.
Что делать пользователям? Если вы полагаетесь на Grok для чего-то важного - начните искать альтернативы сейчас. Не ждите, пока сбой произойдет. Безопасность ИИ похожа на кислород: замечаешь только когда его не хватает. А дышать-то надо постоянно.
P.S. Инженеры, ушедшие из xAI, скорее всего, окажутся в компаниях, которые серьезно относятся к alignment. Через год мы получим иронию: самые безопасные модели следующего поколения будут созданы теми, кого Маск выгнал за «излишнюю осторожность».