Двойные стандарты OpenAI: ограничение Cyber после критики Mythos | AiManual
AiManual Logo Ai / Manual.
01 Май 2026 Новости

OpenAI ограничила доступ к Cyber: двойные стандарты после критики Anthropic за Mythos

OpenAI ограничила доступ к модели Cyber, хотя ранее критиковала Anthropic за ограничение Mythos. Разбираем лицемерие и последствия для AI-безопасности.

Стеклянный дом OpenAI треснул

Всего полгода назад топ-менеджеры OpenAI срывали аплодисменты на конференциях, обвиняя Anthropic в "непрозрачности" и "авторитаризме" после ограничения доступа к модели Mythos. Мол, нельзя засекречивать ИИ, способный взламывать системы быстрее любого хакера. А сегодня — сюрприз: OpenAI сама тихо режет доступ к собственной модели Cyber, оставляя разработчиков и исследователей за бортом.

Только факты: 28 апреля 2026 года OpenAI объявила, что модель Cyber (специализированная версия GPT-4 для пентестов и анализа уязвимостей) переводится в категорию "ограниченного доступа" — понадобится заявка, верификация и подписание NDA. Ранее модель была доступна всем подписчикам ChatGPT Enterprise.

Мгновенно всплыла вчерашняя критика в адрес Anthropic. Вспомнили твиты Ильи Суцкевера, где он называл решение по Mythos "шагом назад для открытой науки". А теперь — тишина. Лицемерие? Безусловно. Но давайте разберемся по порядку.

Что за Cyber и почему её прячут

Cyber — не просто очередной LLM. Это инструмент, созданный для автоматизации поиска уязвимостей zero-day. В бенчмарках она показала результат 94% на тесте DystopiaBench — почти так же, как Mythos от Anthropic. Но если Mythos позиционировалась как "исследовательский прототип", то Cyber была коммерческим продуктом. Почему же её прячут?

  • Предотвращение массовых атак: модель могла бы использоваться злоумышленниками для автоматического поиска брешей.
  • Регуляторное давление: после политического скандала с Mythos власти США потребовали от всех AI-компаний ужесточить контроль над "опасными" моделями.
  • Коммерческая тайна: Cyber содержит наработки, которые OpenAI не хочет раскрывать конкурентам.
МодельРазработчикДоступРеакция на критику
MythosAnthropicЗакрыт (с октября 2025)Обвинения в "авторитаризме" от OpenAI
CyberOpenAIОграничен (с апреля 2026)Молчание, игнорирование прошлых заявлений

Исторический контекст: как OpenAI плясала на костях Mythos

Сразу после того, как Anthropic свернула доступ к Mythos, OpenAI выпустила несколько заявлений и твитов. Этика AI стала полем битвы: "Мы никогда не пойдем по пути закрытости, — писал тогда Сэм Альтман. — Если модель опасна, её нужно дообучать, а не прятать". Громкие слова. Теперь же OpenAI делает ровно то же самое — ограничивает доступ, не предлагая альтернатив.

Более того, всплыли внутренние документы, что Cyber была ограничена еще в марте 2026 года, но публично объявили об этом только после утечки информации. Параллельно с этим утечка Mythos показала, что секретность не гарантирует безопасность — модель все равно попала в руки хакеров. Так что аргумент "защита от злоумышленников" звучит неубедительно, когда злоумышленники уже имеют доступ к закрытым весам.

Забавный факт: вскоре после объявления об ограничении Cyber, в open-source сообществе начали циркулировать дампы модели, якобы "случайно" опубликованные инсайдером. OpenAI отрицает утечку, но эксперты находят сходство с архитектурой GPT-4.

Реакция сообщества: ирония судьбы

Хэштег #OpenAICyberGate взлетел в тренды. Твиты вроде "OpenAI критикует Anthropic за запирание моделей, а потом запирает свою — классика" набирают миллионы просмотров. Но есть и те, кто поддерживает решение: "Лучше ограничить сейчас, чем потом разгребать последствия", — пишут аналитики.

Особенно остро реагируют представители open-source. Конфликт Anthropic и open-source уже показал, что локальные модели могут заменить закрытые. Теперь те же аргументы работают против OpenAI: если Cyber так хороша, почему её не могут использовать исследователи безопасности? В ответ OpenAI обещает "скоро выпустить облегченную версию с меньшими рисками", но сроки не называет.

Кстати, если вы хотите защитить свои данные при работе с AI-инструментами, рекомендуем использовать проверенные VPN-сервисы — даже модели с ограниченным доступом могут быть уязвимы к утечкам.

Политический подтекст: кто на самом деле решает?

Нельзя сбрасывать со счетов давление властей. После инцидента с Mythos, который вылился в скандал, Белый дом потребовал от всех крупных AI-компаний предоставить списки "критических моделей" и меры контроля. OpenAI, пытаясь избежать репутационных потерь, решила перестраховаться — но сделала это максимально топорно.

В итоге мы наблюдаем классический эффект бумеранга: критикуя конкурента за ограничения, OpenAI сама загнала себя в угол. Теперь любое ее действие — будь то открытие или закрытие модели — будет восприниматься через призму лицемерия.

Прогноз: скорее всего, через 3-4 месяца OpenAI вернет Cyber в открытый доступ, но с дополнительными фильтрами. А пока индустрия получила еще один урок: в гонке AI-безопасности моральное превосходство — товар скоропортящийся.

Подписаться на канал