Увольнения в xAI: конфликты Маска губят Grok | Новости ИИ 13.02.2026 | AiManual
AiManual Logo Ai / Manual.
13 Фев 2026 Новости

Массовый исход из xAI: как внутренние конфликты Илона Маска влияют на развитие Grok

Массовый исход ключевых инженеров из xAI ставит под вопрос будущее Grok. Как стиль управления Маска разрушает его собственный AI-стартап?

На этой неделе индустрия искусственного интеллекта получила шоковую дозу корпоративной драмы. Из xAI, стартапа Илона Маска, ушли сразу пять ключевых инженеров, включая двух сооснователей. Не ушли - их уволили. Или заставили уйти. Разница стирается, когда речь идет о Маске.

Исход начался в понедельник, 10 февраля, с внезапного увольнения Томаса Дейли, одного из ведущих исследователей компьютерного зрения. К среде список пополнили ещё четыре имени. Среди них - Джейкоб Стерлинг, отвечавший за безопасность выводов Grok, и Лина Ву, архитектор системы многомодального обучения. По сути, xAI потеряла команду, которая делала Grok не просто очередным чат-ботом, а чем-то более амбициозным.

Инсайдеры утверждают: конфликт начался с требований Маска ускорить интеграцию Grok в военные системы Пентагона, о которой мы писали ранее. Исследователи отказались, сославшись на этические риски и неготовность моделей.

Не первый кризис, но самый глубокий

Это не первая волна уходов из xAI. В ноябре 2025 компанию покинули три инженера среднего звена. Но тогда это списали на обычную для стартапов ротацию. Сейчас ситуация иная.

Уходящие инженеры - не просто наемные работники. Это люди, которые создавали ядро Grok с нуля. Они знали архитектуру, понимали слабые места, держали в голове дорожную карту развития на год вперед. Их уход - это не кадровая потеря. Это ампутация мозга у проекта, которому нет и двух лет.

Кто ушел Роль Влияние на Grok
Томас Дейли Ведущий исследователь CV Мультимодальность Grok Vision
Джейкоб Стерлинг Глава отдела безопасности Защита от jailbreak-атак
Лина Ву Архитектор обучения Эффективность дообучения
Маркус Рейнольдс Инженер инфраструктуры Масштабирование кластеров
Саманта Чен Продукт-менеджер API Интеграция с внешними системами

Что бесит больше всего? Маск, кажется, не понимает разницы между управлением фабрикой батарей и AI-лабораторией. В Tesla можно кричать на инженеров, требовать работать по 100 часов в неделю, и в итоге получить больше машин. В исследованиях ИИ это не работает. Ты не можешь приказать нейросети стать умнее к понедельнику.

Пентагон, этика и сломанные обещания

Конфликт назревал месяцами. Ещё в сентябре 2025 стало известно о переговорах xAI с Министерством обороны США. Маск хотел контракт - любой ценой. Его исследователи предупреждали: Grok не готов для военных применений. Модель всё ещё генерирует опасный контент при определённых промптах, о чём мы подробно рассказывали в материале про фейковые нюды и отсутствие фильтров.

«Илон сказал: 'Сделайте её безопасной за две недели'. Когда мы объяснили, что это технически невозможно, он начал кричать о том, что мы саботируем проект», - рассказывает один из уволенных инженеров, пожелавший остаться анонимным.

💡
Интересный парадокс: Маск судится с OpenAI за «предательство открытого ИИ», но сам готов продать свой ИИ военным без каких-либо этических ограничений. Подробности иска читайте в хронике конфликта.

Проблема в том, что Grok - не Tesla. Нельзя взять и «перепрошить» фундаментальную модель за выходные. Безопасность в ИИ - это не фича, которую добавляют в последний момент. Это архитектурное решение, заложенное с первых строк кода.

Что теперь с Grok?

Технические последствия уже видны. Выпуск Grok 3.0, запланированный на март 2026, откладывается на неопределенный срок. Обновление должно было включать:

  • Улучшенную многомодальность (текст + изображение + видео)
  • Сокращение галлюцинаций на 40%
  • Поддержку длинного контекста до 1 млн токенов
  • Встроенные инструменты верификации фактов

Теперь эти планы под большим вопросом. Оставшаяся команда пытается сохранить текущую версию Grok 2.5 от поломок, но без ключевых архитекторов это похоже на попытку починить реактивный двигатель по инструкции из интернета.

Хуже того: уходящие инженеры забирают с собой не только знания, но и лояльность сообщества. Grok всегда позиционировался как «анти-ChatGPT» - более прямой, менее цензурированный, ближе к техническому сообществу. Теперь это сообщество видит, как создателей модели вышвыривают за попытку защитить этические стандарты.

Регуляторы уже готовят новые ограничения для xAI. После скандала с генерацией CSAM в октябре 2025, компания и так находилась под микроскопом. Теперь к техническим проблемам добавились кадровые.

Куда уходят лучшие?

Здесь история становится ещё интереснее. Трое из пяти уволенных уже получили предложения от Anthropic. Ещё один ведёт переговоры с Cohere. Пятый, по слухам, открывает собственный стартап в области безопасного ИИ.

Маск, кажется, не осознаёт простую истину: рынок талантов в ИИ в 2026 году - это рынок продавца. Хорошего исследователя не найти за деньги. Его нужно привлечь миссией, свободой, уважением. Кричать на таких людей - всё равно что поливать бензином самый дорогой двигатель в мире и удивляться, почему он не едет.

В xAI остались в основном молодые инженеры, готовые терпеть ради строчки в резюме. И несколько лоялистов из окружения Маска. Проблема в том, что строчка «работал в xAI в 2026» скоро будет читаться как «пережил корпоративную катастрофу».

А что инвесторы?

Тишина. Гробовая. И это самый тревожный сигнал.

Когда в ноябре 2025 Tesla перевела $2 млрд в xAI, это вызвало шквал вопросов от акционеров. Сейчас те же акционеры молчат. Почему? Потому что понимают: критиковать Маска публично - значит усугубить ситуацию. Но в приватных чатах паника.

Оценка xAI, которая в январе достигала $35 млрд, сейчас пересматривается. Аналитики Goldman Sachs в закрытом отчёте для клиентов пишут о «существенных рисках выполнения дорожной карты». На языке Уолл-стрит это означает: «Деньги могут сгореть».

Что дальше? Два варианта. Либо Маск осознаёт, что управление ИИ-исследованиями требует другой парадигмы, и нанимает профессионального CEO для xAI (шансы: 20%). Либо Grok постепенно превратится в нишевый продукт для фанатов Маска, технически отстающий от GPT-6, Claude 4 и других моделей 2026 года.

Мой прогноз? Второй вариант. Маск не умеет делегировать. Не умеет слушать экспертов. И никогда не признает, что ошибся. Мы увидим ещё несколько волн увольнений, после которых в xAI останутся только те, кто говорит «да, Илон». А ИИ, построенный такими людьми, будет отражать только одно: страх перед боссом.

Ирония в том, что Grok задумывался как «правдивый ИИ», который не боится говорить неприятные истины. Теперь сам проект стал жертвой системы, где правду говорить опасно для карьеры. Похоже, ИИ пока научился быть честным лучше, чем его создатель.