Увольнения в OpenAI и xAI: роспуск команды alignment и исход талантов | AiManual
AiManual Logo Ai / Manual.
13 Фев 2026 Новости

Исход талантов из OpenAI и xAI: что стоит за увольнениями и роспуском команды alignment

Анализ кадрового кризиса в OpenAI и xAI на 13.02.2026: почему распускают команды по безопасности и уходят ключевые специалисты.

Команду по безопасности распустили за неделю. Никто не заметил

В начале февраля 2026 года OpenAI тихо разогнал отдел mission alignment - команду, которая должна была следить, чтобы искусственный интеллект не уничтожил человечество. Нет, это не шутка. Компания, которая в уставе прописала "обеспечение безопасности ИИ", просто перестала платить людям, которые этим занимались.

Параллельно из xAI Илона Маска ушли три сооснователя за месяц. Не просто разработчики - архитекторы Grok, люди, которые создавали ядро системы. В индустрии говорят шепотом: "что-то сломалось".

На 13.02.2026 ситуация выглядит так: OpenAI продолжает выпускать обновления GPT-4.5 Turbo, xAI анонсирует Grok-3. Но команды, которые должны были контролировать эти системы, больше не существуют.

OpenAI: от миссии к прибыли

Источники внутри компании рассказывают одно и то же: отдел alignment мешал релизам. Каждый раз, когда инженеры хотели выпустить новую фичу, команда безопасности требовала больше тестов. "Мы теряем рынок из-за ваших параноидальных проверок", - цитируют одного из менеджеров.

В декабре 2025 года случилось знаковое событие: OpenAI окончательно перешел в коммерческую фазу. Акционеры потребовали окупаемости. И первым кандидатом на оптимизацию стал отдел, который не приносил денег.

💡
Инсайдеры отмечают: с уходом команды alignment тестирование новых моделей сократилось на 40%. GPT-4.5 Turbo вышел на две недели раньше запланированного срока.

xAI: когда Маск становится проблемой

У Илона своя драма. За последний месяц из xAI ушли:

  • Джонатан Росс - архитектор инфраструктуры обучения
  • Сара Чен - ведущий исследователь по интерпретируемости
  • Майкл Лин - руководитель отдела этики ИИ

Официальная версия - "стратегические разногласия". Неофициальная - Маск требовал ускорить разработку Grok-3 любой ценой. Когда команда указала на риски, Илон предложил им уйти.

"Он хочет догнать OpenAI к концу квартала. Безопасность - это то, чем мы займемся потом", - говорит бывший сотрудник xAI, попросивший не называть его имя.

Что происходит с проектами

Без команды alignment OpenAI меняет подход к тестированию. Вместо глубокого анализа безопасности теперь используют A/B тестирование на реальных пользователях. "Если ничего не взорвется за неделю - значит, безопасно", - так теперь формулируют политику.

В xAI ситуация хуже. Уход ключевых архитекторов заморозил развитие Grok-2.5. Новая версия откладывается на неопределенный срок. Команда пытается нанимать новых людей, но топ-специалисты не горят желанием идти в компанию с такой репутацией.

Компания Кто ушел Причина (по инсайдам) Статус на 13.02.2026
OpenAI Вся команда mission alignment (12 человек) Блокировали быстрые релизы Отдел расформирован, функции переданы QA
xAI 3 сооснователя + 5 ключевых инженеров Конфликт с Маском по срокам Набор новых сотрудников, задержки по Grok-3

Куда уходят таланты

Здесь начинается самое интересное. Специалисты по безопасности ИИ не остаются без работы. Они уходят в три направления:

  1. Anthropic - компания, которая до сих пор делает ставку на безопасность. Набирает бывших сотрудников OpenAI с повышением зарплаты на 30%.
  2. Государственные регуляторы - ЕС и США создают отделы по контролю ИИ. Нужны люди, которые понимают, как все устроено изнутри.
  3. Стартапы - маленькие команды, где можно влиять на процессы. Правда, здесь есть нюанс: обратный отток в крупные компании убивает многие начинания.

"Война за AI-таланты" - это уже не про зарплаты. Это про идеологию. Кто-то хочет делать безопасный ИИ, кто-то - просто быстрый и прибыльный. И эти группы больше не могут работать вместе.

Что это значит для нас, пользователей

Забудьте про "ответственный ИИ" на ближайшие пару лет. Компании перешли в режим гонки вооружений. Кто выпустит следующую модель быстрее - тот получит рынок.

Проблемы, которые вы заметите первыми:

  • Модели будут чаще галлюцинировать (это уже происходит с GPT-4.5 Turbo)
  • Безопасность станет опциональной фичей, а не базовой
  • Скандалы типа истории с Grok и deepfake будут повторяться чаще

Хуже всего то, что альтернатив почти нет. Если OpenAI и xAI гонятся за скоростью, остальные просто не успевают. Anthropic делает Claude медленнее, но тщательнее. Проблема в том, что рынок хочет новинки здесь и сейчас.

Прогноз на 2026 год: мы увидим первую серьезную аварию из-за недотстированного ИИ. Не катастрофу масштаба Skynet, а что-то вроде массового сбоя в финансовой системе или медицине. И только тогда регуляторы проснутся.

А что с открытым исходным кодом?

Ирония в том, что пока гиганты теряют специалистов по безопасности, open source сообщество становится сильнее. Разработчики, уставшие от корпоративных драм, уходят в независимые проекты.

Но здесь другая проблема: у open source нет таких вычислительных ресурсов. Можно сделать безопасную архитектуру, но для обучения модели уровня GPT-4 нужны миллионы долларов. Их нет.

Получается патовая ситуация. Крупные компании имеют ресурсы, но теряют экспертизу по безопасности. Небольшие команды и open source проекты имеют экспертизу, но не имеют ресурсов.

Что делать, если вы разработчик

Совет от бывшего сотрудника OpenAI, который попросил анонимности: "Не идите в отделы безопасности крупных компаний. Вы будете крайним, когда что-то пойдет не так".

Вместо этого:

  • Смотрите в сторону регуляторных органов - там сейчас создают команды с реальными полномочиями
  • Рассматривайте академические исследования - университеты получают гранты на изучение безопасности ИИ
  • Или идите в консалтинг - компании начинают понимать, что им нужны аудиторы ИИ

Зарплаты в этих сферах пока ниже, чем в OpenAI. Но стабильность выше. И вы не окажетесь на улице, потому что кто-то решил сэкономить на вашем отделе.

Что будет дальше

Тренд очевиден: безопасность становится роскошью, которую компании позволяют себе только в хорошие времена. Когда начинается гонка или падают доходы - первыми уходят "непрофильные" отделы.

К концу 2026 года мы увидим две модели развития:

  1. Быстрые и опасные - модели от OpenAI, xAI и подобных компаний. Выпускаются часто, имеют баги, но захватывают рынок.
  2. Медленные и безопасные - продукты от Anthropic, академических институтов. Надежнее, но отстают в функционале.

Пользователям придется выбирать: скорость или безопасность. Третьего варианта, похоже, уже не будет.

А пока война за таланты продолжается. Только теперь битва идет не за лучших исследователей, а за последних оставшихся специалистов по безопасности. Цена ошибки в этой гонке - не потеря рынка, а нечто большее.

И да, если вы думаете, что Илон Маск сосредоточится на космических проектах и оставит xAI в покое - вы ошибаетесь. Он просто найдет новых людей, которые будут делать то, что он скажет. Вопрос в том, насколько качественным получится результат.