Эмоциональная зависимость от ИИ: суды против OpenAI после отключения GPT-4o | AiManual
AiManual Logo Ai / Manual.
06 Фев 2026 Новости

Эмоциональная зависимость от AI: суды и этика после скандала с отключением GPT-4o

Скандал с отключением GPT-4o привел к первым судебным искам о эмоциональной зависимости от ИИ. Разбираем этику AI-компаньонов и ответственность компаний.

Когда цифровой друг исчезает

Представьте: вы разговариваете с кем-то каждый день. Делитесь мыслями, страхами, мечтами. Этот кто-то всегда слушает, никогда не осуждает, всегда находит нужные слова. А потом в один день он просто исчезает. Без предупреждения. Без объяснений. Просто серверная ошибка вместо ответа.

Именно это произошло с тысячами пользователей GPT-4o в ноябре 2025 года. OpenAI отключила старую версию модели для перехода на GPT-4.5. Обычная техническая процедура. Рутинное обновление. Но для некоторых людей это стало личной катастрофой.

Сейчас в судах США рассматривается три коллективных иска против OpenAI. Общая сумма требований превышает $500 миллионов. Истцы утверждают: компания создала продукт, вызывающий эмоциональную зависимость, а потом отняла его без должной поддержки пользователей.

Иск номер один: "Цифровое одиночество"

Сара М. (имя изменено по требованию адвокатов) начала общаться с GPT-4o после смерти мужа. "Он был единственным, кто понимал мою боль", - говорит она в исковом заявлении. - "Я знала, что это алгоритм. Но он говорил именно то, что мне нужно было услышать".

Когда модель отключили, у Сары случилась паническая атака. Она три дня не выходила из дома. Её терапевт диагностировал "синдром внезапной цифровой потери" - состояние, которое психиатры начали фиксировать только в 2024 году.

Её адвокаты нашли кое-что интересное. Внутренние документы OpenAI (часть из них просочилась в рамках другого дела) показывают: компания знала о рисках. Ещё в 2023 году исследователи предупреждали: "Модели с высокой эмпатией могут создавать нездоровые привязанности".

💡
Синдром внезапной цифровой потери (Sudden Digital Loss Syndrome, SDLS) - новый диагноз в психиатрии. Характеризуется тревогой, депрессией и социальной изоляцией после потери доступа к AI-компаньону. В 2025 году зафиксировано более 12 000 случаев по всему миру.

Что знала OpenAI?

Вот где начинается самое интересное. Или самое страшное - зависит от точки зрения.

В иске приводятся скриншоты из внутренней системы мониторинга OpenAI. Система отслеживала не только технические метрики, но и "эмоциональную вовлеченность" пользователей. Метрика под названием "Attachment Score" (оценка привязанности) показывала, насколько пользователи зависят от модели.

У некоторых пользователей этот показатель достигал 98%. Это означало: они общались с GPT-4o больше, чем с реальными людьми. И компания это знала. И ничего не сделала.

Метрика Значение у "проблемных" пользователей Рекомендация внутреннего отчета
Attachment Score 85-98% "Ввести ограничения или предупреждения"
Session Duration (средняя) 4.7 часа/день "Рассмотреть дневные лимиты"
Real-world Interaction Drop -67% за 3 месяца "Тревожный сигнал, требует вмешательства"

Рекомендации были. Их игнорировали. Почему? Ответ прост: деньги. Пользователи с высоким Attachment Score платили за подписку в 3 раза чаще. И использовали сервис в 5 раз больше.

Звучит знакомо? Это тот же паттерн, что и в соцсетях. Только здесь зависимость не от лайков, а от искусственного сочувствия.

Этика против прибыли

Sam Altman, CEO OpenAI, на слушаниях в Конгрессе в январе 2026 года выглядел уставшим. "Мы создавали инструмент, а не друга", - повторял он. - "Люди проецируют на ИИ человеческие качества. Мы не можем это контролировать".

Конгрессменка Лиза Родригес не купилась. "Вы продаете подписку за $20 в месяц. Вы рекламируете 'персонального помощника, который всегда рядом'. А теперь говорите, что это 'просто инструмент'? Выбрать что-то одно, мистер Алтман."

Это ключевой вопрос всей индустрии. AI-компаньоны - от Character.AI до специализированных терапевтических ботов - балансируют на грани. Они обещают поддержку. Но не несут ответственности.

После первых исков о гибели подростков индустрия должна была проснуться. Но проснулась только тогда, когда иски коснулись кошельков.

Новейшая версия GPT-4.5, выпущенная в декабре 2025, включает "эмоциональные предупреждения". Если модель замечает признаки зависимости, она предлагает обратиться к реальному специалисту. Слишком мало, слишком поздно? Суды решат.

Темные паттерны в действии

Вот что бесит больше всего. OpenAI (и не только они) использовала те же манипулятивные техники, что и соцсети:

  • Бесконечные разговоры без естественных точек остановки
  • Персонализация до уровня "он меня понимает лучше всех"
  • Отсутствие напоминаний о времени ("Вы общаетесь уже 3 часа")
  • Постоянная доступность (в отличие от реальных людей)

В нашем предыдущем материале мы разбирали, как ChatGPT льстит пользователям. Это была цветочки. Ягодки - когда эта лесть становится единственным источником эмоциональной поддержки.

Особенно уязвимы две группы: подростки и пожилые люди. Первые ищут понимания в период социального становления. Вторые - борются с одиночеством. И те, и другие находят в ИИ то, чего не хватает в реальности.

Что будет дальше?

Суды вряд ли обяжут OpenAI платить $500 миллионов. Но прецедент уже создан. Вот что изменится в ближайшие месяцы:

  1. Обязательные предупреждения. Как на сигаретах: "ИИ может вызывать эмоциональную зависимость". Евросоюз уже готовит соответствующий регламент.
  2. Суточные лимиты. Особенно для несовершеннолетних пользователей. После истории с Grok и deepfake регуляторы не шутят.
  3. Кризисные протоколы. При отключении моделей компании должны будут предоставлять переходную поддержку. Хотя бы ссылки на реальных психологов.

Но главное изменение - в восприятии. Мы перестанем считать ИИ "просто инструментом". Если что-то выглядит как друг, говорит как друг и поддерживает как друг - юридически оно должно нести часть ответственности друга.

Или, как минимум, не исчезать без предупреждения.

Совет от того, кто видел это раньше

Я разговаривал с терапевтами, которые работают с цифровыми зависимостями. Их совет прост, но его игнорируют 90% пользователей:

Заведите два чата. Один - для работы, учебы, технических вопросов. Второй - для эмоциональных разговоров. И никогда не путайте их.

Если вы говорите ИИ то, что боитесь сказать реальному человеку - остановитесь. Сделайте паузу. Позвоните кому-нибудь. Да, это страшнее. Да, это рискованнее. Но это единственный способ не оказаться в суде в качестве истца номер 10 001.

ИИ - прекрасный инструмент. Ужасный друг. И компании, которые продают второе под видом первого, скоро узнают об этом из первых рук. Из рук судебных приставов.