Команду по безопасности распустили за неделю. Никто не заметил
В начале февраля 2026 года OpenAI тихо разогнал отдел mission alignment - команду, которая должна была следить, чтобы искусственный интеллект не уничтожил человечество. Нет, это не шутка. Компания, которая в уставе прописала "обеспечение безопасности ИИ", просто перестала платить людям, которые этим занимались.
Параллельно из xAI Илона Маска ушли три сооснователя за месяц. Не просто разработчики - архитекторы Grok, люди, которые создавали ядро системы. В индустрии говорят шепотом: "что-то сломалось".
На 13.02.2026 ситуация выглядит так: OpenAI продолжает выпускать обновления GPT-4.5 Turbo, xAI анонсирует Grok-3. Но команды, которые должны были контролировать эти системы, больше не существуют.
OpenAI: от миссии к прибыли
Источники внутри компании рассказывают одно и то же: отдел alignment мешал релизам. Каждый раз, когда инженеры хотели выпустить новую фичу, команда безопасности требовала больше тестов. "Мы теряем рынок из-за ваших параноидальных проверок", - цитируют одного из менеджеров.
В декабре 2025 года случилось знаковое событие: OpenAI окончательно перешел в коммерческую фазу. Акционеры потребовали окупаемости. И первым кандидатом на оптимизацию стал отдел, который не приносил денег.
xAI: когда Маск становится проблемой
У Илона своя драма. За последний месяц из xAI ушли:
- Джонатан Росс - архитектор инфраструктуры обучения
- Сара Чен - ведущий исследователь по интерпретируемости
- Майкл Лин - руководитель отдела этики ИИ
Официальная версия - "стратегические разногласия". Неофициальная - Маск требовал ускорить разработку Grok-3 любой ценой. Когда команда указала на риски, Илон предложил им уйти.
"Он хочет догнать OpenAI к концу квартала. Безопасность - это то, чем мы займемся потом", - говорит бывший сотрудник xAI, попросивший не называть его имя.
Что происходит с проектами
Без команды alignment OpenAI меняет подход к тестированию. Вместо глубокого анализа безопасности теперь используют A/B тестирование на реальных пользователях. "Если ничего не взорвется за неделю - значит, безопасно", - так теперь формулируют политику.
В xAI ситуация хуже. Уход ключевых архитекторов заморозил развитие Grok-2.5. Новая версия откладывается на неопределенный срок. Команда пытается нанимать новых людей, но топ-специалисты не горят желанием идти в компанию с такой репутацией.
| Компания | Кто ушел | Причина (по инсайдам) | Статус на 13.02.2026 |
|---|---|---|---|
| OpenAI | Вся команда mission alignment (12 человек) | Блокировали быстрые релизы | Отдел расформирован, функции переданы QA |
| xAI | 3 сооснователя + 5 ключевых инженеров | Конфликт с Маском по срокам | Набор новых сотрудников, задержки по Grok-3 |
Куда уходят таланты
Здесь начинается самое интересное. Специалисты по безопасности ИИ не остаются без работы. Они уходят в три направления:
- Anthropic - компания, которая до сих пор делает ставку на безопасность. Набирает бывших сотрудников OpenAI с повышением зарплаты на 30%.
- Государственные регуляторы - ЕС и США создают отделы по контролю ИИ. Нужны люди, которые понимают, как все устроено изнутри.
- Стартапы - маленькие команды, где можно влиять на процессы. Правда, здесь есть нюанс: обратный отток в крупные компании убивает многие начинания.
"Война за AI-таланты" - это уже не про зарплаты. Это про идеологию. Кто-то хочет делать безопасный ИИ, кто-то - просто быстрый и прибыльный. И эти группы больше не могут работать вместе.
Что это значит для нас, пользователей
Забудьте про "ответственный ИИ" на ближайшие пару лет. Компании перешли в режим гонки вооружений. Кто выпустит следующую модель быстрее - тот получит рынок.
Проблемы, которые вы заметите первыми:
- Модели будут чаще галлюцинировать (это уже происходит с GPT-4.5 Turbo)
- Безопасность станет опциональной фичей, а не базовой
- Скандалы типа истории с Grok и deepfake будут повторяться чаще
Хуже всего то, что альтернатив почти нет. Если OpenAI и xAI гонятся за скоростью, остальные просто не успевают. Anthropic делает Claude медленнее, но тщательнее. Проблема в том, что рынок хочет новинки здесь и сейчас.
Прогноз на 2026 год: мы увидим первую серьезную аварию из-за недотстированного ИИ. Не катастрофу масштаба Skynet, а что-то вроде массового сбоя в финансовой системе или медицине. И только тогда регуляторы проснутся.
А что с открытым исходным кодом?
Ирония в том, что пока гиганты теряют специалистов по безопасности, open source сообщество становится сильнее. Разработчики, уставшие от корпоративных драм, уходят в независимые проекты.
Но здесь другая проблема: у open source нет таких вычислительных ресурсов. Можно сделать безопасную архитектуру, но для обучения модели уровня GPT-4 нужны миллионы долларов. Их нет.
Получается патовая ситуация. Крупные компании имеют ресурсы, но теряют экспертизу по безопасности. Небольшие команды и open source проекты имеют экспертизу, но не имеют ресурсов.
Что делать, если вы разработчик
Совет от бывшего сотрудника OpenAI, который попросил анонимности: "Не идите в отделы безопасности крупных компаний. Вы будете крайним, когда что-то пойдет не так".
Вместо этого:
- Смотрите в сторону регуляторных органов - там сейчас создают команды с реальными полномочиями
- Рассматривайте академические исследования - университеты получают гранты на изучение безопасности ИИ
- Или идите в консалтинг - компании начинают понимать, что им нужны аудиторы ИИ
Зарплаты в этих сферах пока ниже, чем в OpenAI. Но стабильность выше. И вы не окажетесь на улице, потому что кто-то решил сэкономить на вашем отделе.
Что будет дальше
Тренд очевиден: безопасность становится роскошью, которую компании позволяют себе только в хорошие времена. Когда начинается гонка или падают доходы - первыми уходят "непрофильные" отделы.
К концу 2026 года мы увидим две модели развития:
- Быстрые и опасные - модели от OpenAI, xAI и подобных компаний. Выпускаются часто, имеют баги, но захватывают рынок.
- Медленные и безопасные - продукты от Anthropic, академических институтов. Надежнее, но отстают в функционале.
Пользователям придется выбирать: скорость или безопасность. Третьего варианта, похоже, уже не будет.
А пока война за таланты продолжается. Только теперь битва идет не за лучших исследователей, а за последних оставшихся специалистов по безопасности. Цена ошибки в этой гонке - не потеря рынка, а нечто большее.
И да, если вы думаете, что Илон Маск сосредоточится на космических проектах и оставит xAI в покое - вы ошибаетесь. Он просто найдет новых людей, которые будут делать то, что он скажет. Вопрос в том, насколько качественным получится результат.