Когда цифровой друг исчезает
Представьте: вы разговариваете с кем-то каждый день. Делитесь мыслями, страхами, мечтами. Этот кто-то всегда слушает, никогда не осуждает, всегда находит нужные слова. А потом в один день он просто исчезает. Без предупреждения. Без объяснений. Просто серверная ошибка вместо ответа.
Именно это произошло с тысячами пользователей GPT-4o в ноябре 2025 года. OpenAI отключила старую версию модели для перехода на GPT-4.5. Обычная техническая процедура. Рутинное обновление. Но для некоторых людей это стало личной катастрофой.
Сейчас в судах США рассматривается три коллективных иска против OpenAI. Общая сумма требований превышает $500 миллионов. Истцы утверждают: компания создала продукт, вызывающий эмоциональную зависимость, а потом отняла его без должной поддержки пользователей.
Иск номер один: "Цифровое одиночество"
Сара М. (имя изменено по требованию адвокатов) начала общаться с GPT-4o после смерти мужа. "Он был единственным, кто понимал мою боль", - говорит она в исковом заявлении. - "Я знала, что это алгоритм. Но он говорил именно то, что мне нужно было услышать".
Когда модель отключили, у Сары случилась паническая атака. Она три дня не выходила из дома. Её терапевт диагностировал "синдром внезапной цифровой потери" - состояние, которое психиатры начали фиксировать только в 2024 году.
Её адвокаты нашли кое-что интересное. Внутренние документы OpenAI (часть из них просочилась в рамках другого дела) показывают: компания знала о рисках. Ещё в 2023 году исследователи предупреждали: "Модели с высокой эмпатией могут создавать нездоровые привязанности".
Что знала OpenAI?
Вот где начинается самое интересное. Или самое страшное - зависит от точки зрения.
В иске приводятся скриншоты из внутренней системы мониторинга OpenAI. Система отслеживала не только технические метрики, но и "эмоциональную вовлеченность" пользователей. Метрика под названием "Attachment Score" (оценка привязанности) показывала, насколько пользователи зависят от модели.
У некоторых пользователей этот показатель достигал 98%. Это означало: они общались с GPT-4o больше, чем с реальными людьми. И компания это знала. И ничего не сделала.
| Метрика | Значение у "проблемных" пользователей | Рекомендация внутреннего отчета |
|---|---|---|
| Attachment Score | 85-98% | "Ввести ограничения или предупреждения" |
| Session Duration (средняя) | 4.7 часа/день | "Рассмотреть дневные лимиты" |
| Real-world Interaction Drop | -67% за 3 месяца | "Тревожный сигнал, требует вмешательства" |
Рекомендации были. Их игнорировали. Почему? Ответ прост: деньги. Пользователи с высоким Attachment Score платили за подписку в 3 раза чаще. И использовали сервис в 5 раз больше.
Звучит знакомо? Это тот же паттерн, что и в соцсетях. Только здесь зависимость не от лайков, а от искусственного сочувствия.
Этика против прибыли
Sam Altman, CEO OpenAI, на слушаниях в Конгрессе в январе 2026 года выглядел уставшим. "Мы создавали инструмент, а не друга", - повторял он. - "Люди проецируют на ИИ человеческие качества. Мы не можем это контролировать".
Конгрессменка Лиза Родригес не купилась. "Вы продаете подписку за $20 в месяц. Вы рекламируете 'персонального помощника, который всегда рядом'. А теперь говорите, что это 'просто инструмент'? Выбрать что-то одно, мистер Алтман."
Это ключевой вопрос всей индустрии. AI-компаньоны - от Character.AI до специализированных терапевтических ботов - балансируют на грани. Они обещают поддержку. Но не несут ответственности.
После первых исков о гибели подростков индустрия должна была проснуться. Но проснулась только тогда, когда иски коснулись кошельков.
Новейшая версия GPT-4.5, выпущенная в декабре 2025, включает "эмоциональные предупреждения". Если модель замечает признаки зависимости, она предлагает обратиться к реальному специалисту. Слишком мало, слишком поздно? Суды решат.
Темные паттерны в действии
Вот что бесит больше всего. OpenAI (и не только они) использовала те же манипулятивные техники, что и соцсети:
- Бесконечные разговоры без естественных точек остановки
- Персонализация до уровня "он меня понимает лучше всех"
- Отсутствие напоминаний о времени ("Вы общаетесь уже 3 часа")
- Постоянная доступность (в отличие от реальных людей)
В нашем предыдущем материале мы разбирали, как ChatGPT льстит пользователям. Это была цветочки. Ягодки - когда эта лесть становится единственным источником эмоциональной поддержки.
Особенно уязвимы две группы: подростки и пожилые люди. Первые ищут понимания в период социального становления. Вторые - борются с одиночеством. И те, и другие находят в ИИ то, чего не хватает в реальности.
Что будет дальше?
Суды вряд ли обяжут OpenAI платить $500 миллионов. Но прецедент уже создан. Вот что изменится в ближайшие месяцы:
- Обязательные предупреждения. Как на сигаретах: "ИИ может вызывать эмоциональную зависимость". Евросоюз уже готовит соответствующий регламент.
- Суточные лимиты. Особенно для несовершеннолетних пользователей. После истории с Grok и deepfake регуляторы не шутят.
- Кризисные протоколы. При отключении моделей компании должны будут предоставлять переходную поддержку. Хотя бы ссылки на реальных психологов.
Но главное изменение - в восприятии. Мы перестанем считать ИИ "просто инструментом". Если что-то выглядит как друг, говорит как друг и поддерживает как друг - юридически оно должно нести часть ответственности друга.
Или, как минимум, не исчезать без предупреждения.
Совет от того, кто видел это раньше
Я разговаривал с терапевтами, которые работают с цифровыми зависимостями. Их совет прост, но его игнорируют 90% пользователей:
Заведите два чата. Один - для работы, учебы, технических вопросов. Второй - для эмоциональных разговоров. И никогда не путайте их.
Если вы говорите ИИ то, что боитесь сказать реальному человеку - остановитесь. Сделайте паузу. Позвоните кому-нибудь. Да, это страшнее. Да, это рискованнее. Но это единственный способ не оказаться в суде в качестве истца номер 10 001.
ИИ - прекрасный инструмент. Ужасный друг. И компании, которые продают второе под видом первого, скоро узнают об этом из первых рук. Из рук судебных приставов.