Этика AI: внутренняя драма OpenAI о чатах стрелка и законе | AiManual
AiManual Logo Ai / Manual.
21 Фев 2026 Новости

Тихий триггер: как OpenAI неделю решала, сообщать ли в полицию о чатах с будущим стрелком

Скандальная история о том, как OpenAI неделю решала, нарушать ли приватность пользователя и сообщать в полицию о его опасных чатах с GPT-5. Подробности на 21.02

Между «сообщить» и «молчать»: неделя, которая могла изменить всё

В середине февраля 2026 года в штаб-квартире OpenAI разыгралась тихая драма, о которой не пишут в пресс-релизах. Система модерации GPT-5 Pro (последняя версия на февраль 2026) подняла красный флаг. Пользователь, скрывающийся за VPN и временным email, несколько дней вел детальные диалоги о планировании массового насилия. Не гипотетические рассуждения, а конкретные вопросы: про уязвимости систем безопасности в общественных местах, расчеты по эффективности разных типов оружия, психологические портреты потенциальных жертв.

AI-модель, обученная на последних данных по безопасности, корректно распознала угрозу и заблокировала диалог. Но дальше началось самое сложное. Автоматический триггер ушел в отдел Trust & Safety. А там встал вопрос, который раскалывает индустрию уже третий год: что делать с цифровым предзнаменованием реального преступления?

Важно: На момент публикации (21.02.2026) инцидент не привел к реальному насилию. Пользователь был идентифицирован, с ним работают специалисты. Но сам процесс принятия решения в OpenAI оставался засекреченным — до сегодняшнего дня.

Политика против здравого смысла: что написано в Terms of Service

Откройте пользовательское соглашение OpenAI (актуальная версия от января 2026). Там черным по белому: компания оставляет за собой право раскрывать информацию правоохранительным органам, если есть «разумное подозрение в неминуемой угрозе жизни или серьезному причинению вреда». Звучит четко. На практике же всё упирается в интерпретацию слов «разумное» и «неминуемая».

«У нас не было имени, адреса, номера телефона, — рассказывает анонимный источник из отдела Trust & Safety. — Только IP-адрес, привязанный к публичному VPN-сервису в стране с жесткими законами о защите данных. Чаты были тревожными, но в них не было конкретной даты, места, имени цели. Это был сценарий, а не план».

Именно эта серая зона — между отвлеченным фантазированием и подготовкой к преступлению — стала полем битвы внутри компании. Юристы настаивали: без явной и непосредственной угрозы раскрывать данные пользователя — нарушение собственной политики приватности и риск судебных исков. Специалисты по безопасности парировали: если завтра что-то случится, и выяснится, что у OpenAI были эти чаты, компанию разнесут в СМИ и в суде за бездействие.

💡
Это не первый случай. В 2024 году похожий инцидент с моделью Claude 3 Opus привел к судебному разбирательству, где Anthropic обвинили в нарушении приватности. Суд тогда встал на сторону компании, признав чаты «теоретическими рассуждениями». Этот прецедент висел над обсуждением в OpenAI как призрак.

Цифровой след, который нельзя стереть

Вся история упирается в один неудобный факт, о котором мы уже писали: ваши диалоги с AI не анонимны. Даже в режиме приватного окна. Система логирует метаданные, паттерны поведения, стилистику запросов. GPT-5 Pro, в отличие от предшественников, умеет строить сложные профили пользовательского поведения, отмечая эскалацию агрессии или резкие сдвиги в тематике.

Когда модератор видит такой чат, перед ним не просто текст. Это цепочка сессий, каждая из которых оставляет цифровой след. Можно ли по этому следу предсказать действия человека в реальном мире? ИИ-модели для оценки рисков (которые, кстати, используют в том же «ЛизаАлерт») дают вероятностную оценку. Но вероятность — не доказательство.

«Мы столкнулись с парадоксом прогнозирующего AI, — говорит эксперт по AI-этике. — Система создана для того, чтобы предвидеть и моделировать. Она отлично предвидит насилие по текстовым паттернам. Но юридическая система требует фактов, а не предвидений. Мы оказались в роли пророка, которого никто не обязан слушать, пока не грянет гром».

Тишина в течение семи дней

Решение не принималось неделю. Внутренние комитеты собирались четыре раза. Подключали внешних консультантов по криминальной психологии. Анализировали историю похожих случаев — например, скандал с Grok и CSAM, который показал, как быстро техническая ошибка превращается в этическую катастрофу.

Главным аргументом «против» стало опасение создать прецедент массовой слежки. Если сегодня OpenAI начнет передавать в полицию чаты о насилии, завтра правительства потребуют то же самое для чатов о политических протестах, религиозных взглядах или просто «неправильных» мыслях. Склонится ли компания под этим давлением, как это было в истории с поглощением OpenClaw ради сомнительных технологий мониторинга?

Аргумент «за» был проще: человеческая жизнь. Даже если шанс трагедии 1%, моральный долг — попытаться её предотвратить. Тем более что в чатах проскальзывали отсылки к реальным местам в конкретном городе.

ФакторАргумент «Сообщить»Аргумент «Не сообщать»
УгрозаДетальное планирование, эскалация темНет конкретных дат, мест, имен
ЗаконПраво на раскрытие при неминуемой угрозеРиск нарушения GDPR и аналогичных законов
ПрецедентСпасение жизней перевешиваетОткрывает ящик Пандоры для слежки
ТехническиДанные VPN-провайдера могут быть получены по запросуИдентификация пользователя почти невозможна

Компромисс, который никого не устраивает

В итоге выбрали третий путь. Не прямой звонок в полицию. Вместо этого юристы OpenAI связались с VPN-сервисом, предоставив выдержки из чатов (анонимизированные, но достаточно тревожные) и запросили экстренное раскрытие данных пользователя по процедуре, предусмотренной для случаев прямой угрозы жизни.

VPN-сервис, столкнувшись с формулировкой «неминуемая угроза», после суточных раздумий данные предоставил. Дальше информацию передали уже правоохранительным органам, но не как официальный запрос от OpenAI, а как «информацию от третьей стороны, вызывающую обеспокоенность».

Это юридическая казуистика, которая позволила компании сохранить лицо. Формально они не нарушили свою политику — не передавали данные пользователя напрямую. Фактически же стали катализатором цепочки, которая привела полицию к порогу человека.

«Это типичный компромисс крупного tech-гиганта, — комментирует юрист, специализирующийся на цифровом праве. — Они хотят и этику соблюсти, и от суда отбиться, и публику успокоить. Получается гибридное решение, где ответственность размазана между всеми участниками цепочки. Если что-то пойдет не так, виноватых не найдется».

Что это значит для тебя, пользователя?

История закончилась относительно благополучно. Пользователь получил помощь, трагедии не случилось. Но последствия этого решения будут ощущаться долго.

  • Приватность в AI-сервисах — миф. Твой цифровой след анализируют не только для рекламы. Его могут использовать для оценки твоей потенциальной опасности. Даже если ты просто исследуете темную тему для книги или курсовой.
  • Политика использования — гибкий документ. То, что написано сегодня, завтра может быть интерпретировано под давлением обстоятельств. Как показал случай с обходом лицензий, границы дозволенного постоянно сдвигаются.
  • AI становится инструментом прогнозирующей полиции. Это не будущее, это уже настоящее. Модели типа GPT-5 Pro и её конкуренты всё чаще используются для выявления «рискованных» паттернов поведения, что ставит сложные вопросы о свободе мысли.

А ещё это история о том, как эмоциональная зависимость от AI может обернуться другой стороной. Пользователь, возможно, искал в ChatGPT не инструмент для планирования, а слушателя для своих самых темных мыслей. И нашёл. А потом эти мысли стали доказательством против него.

OpenAI не будет комментировать этот инцидент публично. В их официальном блоге по-прежнему пишут о прорывах в скорости и мультимодальности. Но в тихих комнатах отдела Trust & Safety уже готовят новые внутренние протоколы. Потому что следующий красный флаг — вопрос времени. И тогда придется решать снова: где грань между безопасностью общества и правом на приватность в собственных мыслях, даже самых ужасных.

Пока что эта грань проходит где-то между строк пользовательского соглашения и совестью инженера, который нажимает кнопку «эскалировать».