В тихих коридорах Кремниевой долины шепчутся уже неделю. Анонимные инсайдеры, бывшие сотрудники, "близкие к руководству" источники - все сходятся в одном: Сэм Олтман, лицо OpenAI, не может написать простой скрипт на Python. Не разбирается в тонкостях трансформеров. Путает backpropagation с багфиксом.
Звучит как плохой анекдот. Но в 2026 году, когда OpenAI только что анонсировала свою новую архитектуру Gemini Ultra 2.5, такие слухи - не просто сплетни. Это вопрос доверия к человеку, который определяет будущее ИИ.
Откуда растут ноги у скандала
История всплыла 2 апреля 2026 года. На платформе Blind появился анонимный пост от человека, утверждающего, что работал в OpenAI до конца 2025 года. Его основной тезис: "Сэм - гениальный питчер и стратег. Но на технических алленах он молчит как рыба. Мы шутили, что его промпт для GPT-7 будет: 'Сделай все хорошо'."
Ключевое обвинение: на внутренней встрече в марте 2026 года Олтман не смог ответить на технический вопрос о механизме внимания в контексте новой смешанной архитектуры компании. По словам инсайдеров, он переадресовал вопрос Илье Суцкеверу, главному ученому, со словами "Это больше твоя территория".
Два дня спустя другой источник, подписавшийся как "Senior Research Engineer, уволен в 2024", добавил деталей. Якобы Олтман на код-ревью проекта, связанного с конфиденциальностью кода в облачных моделях, спросил: "А мы не можем просто сделать это безопасным по умолчанию?"
Проблема в том, что эти обвинения невозможно проверить. OpenAI не комментирует "внутренние спекуляции". Но утечки совпали с моментом, когда компания представляет Gemini Ultra 2.5 - модель, которая, по заявлениям, превосходит человеческий уровень в кодировании на 17 специализированных бенчмарках.
Технический лидер или лицо компании? Старая дилема в новом свете
Здесь мы упираемся в фундаментальный вопрос. Что важнее для CEO AI-компании в 2026 году? Глубокое понимание разницы между LoRA и QLoRA? Или умение собрать 10 миллиардов долларов от Microsoft и саудовских фондов?
История знает оба типа. Билл Гейтс кодировал. Стив Джобс - нет. Марк Цукерберг - да. Илон Маск разбирается в физике, но не пишет production-код. Сэм Олтман всегда позиционировался как предприниматель и визионер, а не как hands-on инженер.
Но ИИ - не смартфоны. Это область, где prompt injection - это не баг, а дизайн. Где решение о том, тренировать ли модель на данных пользователей, требует понимания, что такое дифференциальная приватность на практике, а не в питч-деке.
Бывший сотрудник Google Brain, попросивший не называть его имя, говорит: "В 2022 году можно было быть менеджером, не зная ML. В 2026 - нет. Слишком много решений имеет технический подтекст. Вы не сможете оценить риски структурных инъекций во фреймворке Phantom, если не понимаете, как работает токенизация."
Что на самом деле происходит внутри OpenAI?
Есть три версии.
- Версия 1: Целенаправленная дискредитация. Кто-то внутри компании или конкурент хочет ослабить позиции Олтмана перед важным раундом финансирования или релизом GPT-5, намеченным на конец 2026 года.
- Версия 2: Культурный раскол. Исследователи устали от того, что их технические достижения продаются как "волшебство от Сэма". Это бунт инженеров против маркетинга.
- Версия 3: Правда. Олтман действительно не вникает в технические детали, и это начинает мешать. Особенно после инцидента с IQuest-Coder-V1, когда OpenAI опоздала с ответом на фальшивку, потому что руководство не поняло масштаба технической проблемы.
Самое интересное - реакция сообщества. На Hacker News тред с обсуждением набрал 1200 комментариев за сутки. Половина пишет: "Да кому какое дело? Он CEO!". Другая половина: "В AI-компании CEO должен проходить код-ревью с LLM хотя бы раз в квартал, чтобы оставаться в теме".
Контекст 2026 года: почему это взорвалось именно сейчас
Пять лет назад такой скандал был бы невозможен. CEO технологических компаний редко доказывали свои навыки кодирования. Но в 2026 году все изменилось.
Во-первых, появились инструменты вроде Claude Code, которые позволяют любому писать код уровня senior developer. Если CEO AI-компании не использует их - это странно. Если использует, но не понимает output - еще страннее.
Во-вторых, провалились несколько стартапов, где не-технические основатели не смогли оценить риски своих AI-продуктов. Самый громкий случай - крах SafeAI в феврале 2026, когда их агент, основанный на уязвимостях SAFi, позволил хакерам получить доступ к банковским API клиентов.
В-третьих, регуляторы начали задавать неудобные вопросы. На слушаниях в Конгрессе США в марте 2026 года сенатор прямо спросил у представителя OpenAI: "Может ли ваш CEO объяснить, как модель принимает решения, или он просто верит в 'доброту ИИ'?"
Парадокс: Олтман построил компанию, которая создает инструменты, делающие технические знания доступнее. Но его собственная зависимость от этих инструментов стала предметом насмешек.
Так что же в итоге? Сплетни или разоблачение?
Истина, как обычно, посередине.
Сэм Олтман - не research scientist. Он никогда им не был. Его сила - в видении, переговорах, построении коалиций. Он тот, кто смог превратить OpenAI из некоммерческого исследовательского института в компанию с оценкой под 100 миллиардов долларов.
Но в 2026 году этого может быть недостаточно. Когда твои конкуренты - Демис Хассабис из DeepMind (нейробиолог с публикациями в Nature) и Джан ЛеКун из Meta (один из отцов CNN), твое "я больше про бизнес" звучит неубедительно.
Слухи о слабых навыках - это симптом. Симптом растущего разрыва между коммерциализацией ИИ и его технической сложностью. Между теми, кто создает модели, и теми, кто их продает.
OpenAI ответит на это по-своему. Возможно, Олтман начнет публично показывать свои промпты для Gemini Ultra 2.5. Или назначит технического со-CEO. Или проигнорирует все, как это сделал в 2023 году во время первого скандала с увольнением.
Но одна вещь ясна. В 2026 году быть лицом ИИ - значит постоянно доказывать, что за лицом есть мозги. Даже если эти мозги - распределенные, как в трансформере.
Мой прогноз? К концу года мы увидим "случайную" утечку кода с комментариями от sam@openai.com. Код будет простым, элегантным и perfectly PEP8 compliant. Все скажут: "Ну вот, а вы сомневались". И никто не заметит, что код сгенерирован Gemini Ultra 2.5 с промптом "Напиши что-то умное от моего имени".
Потому что в конечном счете неважно, кто пишет код. Важно, кто контролирует того, кто его пишет. А Олтман контролирует лучших в мире. По крайней мере, пока.