OpenAI и Пентагон: Секретные данные, военный ИИ и смена приоритетов в 2026 году | AiManual
AiManual Logo Ai / Manual.
29 Мар 2026 Новости

Военный поворот OpenAI: как сделка с Пентагоном и обучение на секретных данных перекраивают правила войны

Разбор скандального контракта OpenAI с Пентагоном, обучения на classified data и его последствий для этики, войны и рынка ИИ. Актуально на март 2026.

Этические границы стерты. Начался обратный отсчет

Калифорнийская утопия с открытым исходным кодом и благими намерениями окончательно треснула. OpenAI, компания, которая когда-то клялась не создавать ИИ для военных целей, официально стала подрядчиком Министерства обороны США. Не просто подрядчиком – стратегическим партнером, который получит доступ к самому ценному ресурсу эпохи: секретным (classified) данным Пентагона для обучения своих моделей. Это уже не теоретическая дискуссия в кулуарах конференций. Это факт на март 2026 года. Иранский конфликт не заканчивается, бюджеты растут, а главный игрок на рынке ИИ делает резкий поворот к силовым структурам. Почему сейчас? И что это значит для всех нас?

Контекст: Еще в январе этого года администрация Трампа официально запретила использование моделей Anthropic (включая последнюю Claude 3.7 Sonnet) для федеральных нужд из-за «угрозы безопасности». Это напрямую открыло дорогу OpenAI. Подробности – в нашем материале «Запрет Трампа на Claude и контракт OpenAI с Пентагоном».

Не просто API. Доступ к «чёрному ящику» разведки

Сделка выходит за рамки предоставления доступа к ChatGPT-5 или GPT-5o (на сегодня, 29.03.2026, это самые новые публичные модели OpenAI). Речь о создании специальных, изолированных инстансов, обученных на данных уровня Secret и Top Secret. Представьте: спутниковые снимки Ирана в реальном времени, расшифровки перехваченных коммуникаций, отчёты полевых агентов, тактические схемы передвижения войск. Всё это станет топливом для новой, закрытой ветки ИИ.

Цель? Не генерация отчётов. Системы анализа и предсказания в стиле «AI-чатов для целеуказания», но на стероидах. Модель будет предлагать варианты действий, моделировать последствия ударов, выявлять паттерны в данных противника, которые человек может просто не заметить. Фактически, это создание «советника» для командования, работающего на скорости мысли.

💡
Что такое обучение на classified data? Это процесс, когда нейросеть «скармливают» информацию, недоступную публично: разведданные, детали военных операций, технические спецификации оружия. Это резко повышает её релевантность в конкретных сценариях, но делает модель «закрытой» и потенциально опасной, если её алгоритмы или веса утекут.

А где же Anthropic? Они сказали «нет» и попали под пресс

Здесь начинается самый интересный этический раскол. Пока OpenAI шёл на сделку, его главный конкурент, Anthropic, занял жёсткую позицию. Ещё в конце 2024 года они публично заявили, что их ИИ (включая Claude 3 Opus и последующие версии) не может быть использован для слежки, кибератак или автономного оружия. Их «Бунт против Пентагона» стоил им многомиллиардного контракта.

Итог? OpenAI получает эксклюзивный доступ, деньги и влияние. Anthropic получает похвалы от этических комитетов и... статус «угрозы национальной безопасности» со стороны того же Пентагона. Их технологии сочли «неподконтрольными» и потенциально опасными из-за принципиальной позиции компании. Полный разбор этого парадокса – в статье «Этический раскол в AI».

Критерий OpenAI (по состоянию на 29.03.2026) Anthropic (по состоянию на 29.03.2026)
Позиция по военным контрактам Активное сотрудничество с Пентагоном Принципиальный отказ от наступательных систем
Обучение на секретных данных В рамках спецконтракта – ДА НЕТ, запрещено внутренней конституцией AI
Статус у правительства США Привилегированный подрядчик Частично ограниченная компания
Ключевой финансовый бэкер Microsoft, Nvidia, контракты с госсектором Amazon, частные инвесторы (SoftBank)

Деньги решают всё. $100 миллиардов на кону

За красивыми словами об этике и безопасности всегда стоят деньги. Инвестиционный раунд в $100 млрд от консорциума во главе с SoftBank, Amazon и Nvidia, о котором мы писали ранее, поставил перед OpenAI жёсткие условия окупаемости. Корпоративный рынок – это хорошо. Но госзаказы, особенно оборонные, – это огромные, стабильные и почти бездонные бюджеты.

Финансовый кризис конца 2025 года, так называемый «Красный код» OpenAI, только ускорил этот поворот. Когда горит, выбираешь не самый этичный, а самый быстрый путь к деньгам. Пентагон предложил самый короткий путь. OpenAI согласился.

А что пользователи? Ваши данные уже давно товар

Ирония в том, что OpenAI уже давно тренируется на данных, которые не принадлежат компании. Напомним, в 2025 году всплыла история о том, что OpenAI платила подрядчикам в Кении и Индии за разметку личных и рабочих файлов, случайно попавших в тренировочные датасеты. Об этом – в нашем расследовании «OpenAI платит подрядчикам за ваши рабочие файлы».

Если ваши PDF-ки и переписки уже были товаром, то переход на секретные данные Пентагона – это просто переход на новый, более дорогой сегмент рынка. Логика та же. Масштаб и последствия – несопоставимы.

Что дальше? Прогноз на 2027-2028

Разворот OpenAI – это точка невозврата. Рынок ИИ для силовых структур теперь будет делиться на два лагеря: «этичные» компании (вроде Anthropic), которые останутся в нише коммерции и науки (см. гонку OpenAI for Science vs DeepMind), и «прагматичные» игроки (OpenAI и другие), которые станут руками и мозгами военных ведомств.

К 2028 году мы увидим первые публичные инциденты, где решения, предложенные ИИ, напрямую приведут к военным действиям. Ответственность будет размыта. Алгоритм предложил, человек нажал кнопку. Кто виноват? Никто. И все.

Совет тем, кто ещё верит в «открытый и безопасный ИИ»: перестаньте смотреть на заявления компаний. Смотрите на их контракты. Деньги – единственный настоящий компас, который показывает, куда движется технология. А он сейчас уверенно показывает на Пентагон.

Подписаться на канал