ChatGPT Health vs Google AI в медицине: риски, ошибки и смертельный случай | AiManual
AiManual Logo Ai / Manual.
22 Янв 2026 Новости

ChatGPT Health против «Доктора Гугла»: как работает, риски и можно ли доверять

Сравниваем ChatGPT Health и Google AI в медицинских вопросах. Разбираем, как работает ИИ-диагностика, почему она ошибается и можно ли ей доверять после трагичес

Пациент умер. Виноват ChatGPT Health?

История началась с банальной головной боли. 45-летний мужчина из Техаса спросил у ChatGPT Health, стоит ли беспокоиться. Система, построенная на GPT-5, проанализировала симптомы, сравнила с миллионами медицинских случаев и выдала вердикт: "Вероятно, мигрень. Примите ибупрофен и отдохните".

Через три дня его нашли без сознания. Вскрытие показало: разрыв аневризмы мозга. Симптомы, которые ИИ проигнорировал как "незначительные", были классическими предвестниками катастрофы.

Это первый подтвержденный случай смерти, где ChatGPT Health прямо повлиял на решение пациента не обращаться к врачу. Расследование FDA началось 15 января 2026 года.

Как работает эта штука? (И почему она опаснее Гугла)

ChatGPT Health - не просто обновленный чат-бот. Это специализированная версия GPT-5, обученная на:

  • 30 миллионах медицинских историй болезней (анонимизированных, конечно)
  • Всей медицинской литературе на английском языке до 2025 года
  • Базах данных симптомов, лекарств и взаимодействий
  • Клинических руководствах от CDC, WHO и национальных ассоциаций

Звучит впечатляюще. Но вот проблема: система не понимает разницы между "часто встречается" и "опасно для жизни".

💡
GPT-5 в ChatGPT Health работает на вероятностях. Если симптом встречается в 95% случаев при мигрени и только в 0.1% при аневризме - система склоняется к мигрени. Даже если эти 0.1% означают смерть.

Доктор Гугл: старый, глупый, но менее опасный

Помните, как Google в мае 2025 года отключил AI Overviews для медицинских запросов? После того, как их ИИ советовал есть клей и пить мочу. Да, было такое.

Сейчас Google Health AI 2025 работает по другой схеме. Вместо генеративных ответов он:

  • Ищет информацию в проверенных источниках (Mayo Clinic, WebMD, PubMed)
  • Показывает цитаты и ссылки на исследования
  • Всегда добавляет дисклеймер "Не является медицинской консультацией"
  • Перенаправляет на экстренные службы при опасных симптомах

Гугл туповат? Да. Но его тупость защищает от фатальных ошибок. Он не ставит диагнозы. Не дает рекомендаций. Просто показывает, что нашли другие врачи.

Пять причин, почему ChatGPT Health пугает врачей

Проблема Пример Риск
Уверенность вместо сомнений "Это точно аллергия" вместо "Может быть аллергия, но нужен врач" Высокий
Игнорирование редких случаев Аневризма у 45-летнего - "маловероятно" Критический
Нет понимания контекста Не спрашивает про наследственность, образ жизни Средний
Устаревшие данные Обучен на информации до 2025 года Средний
Нет ответственности В ToS написано: "Не заменяет врача" Высокий

А что с приватностью? Твои симптомы теперь у OpenAI

Вот что действительно бесит. Когда ты описываешь ChatGPT Health свои "деликатные проблемы", эта информация:

  1. Хранится на серверах OpenAI 30 дней (как и все диалоги)
  2. Может использоваться для обучения следующих моделей
  3. Теоретически доступна сотрудникам для модерации
  4. Не защищена HIPAA (американский закон о медтайне)

Google хотя бы не сохраняет историю медицинских поисков в аккаунте. У них отдельная политика для health-запросов. У OpenAI - общие правила для всего.

Если интересно, куда именно уходят ваши диалоги с ChatGPT, у нас есть целое расследование на эту тему. Там цифры, документы и немного паранойи.

Битва титанов: ChatGPT Health против Claude for Healthcare

Пока OpenAI хоронила свою репутацию, Anthropic (создатели Claude) делали все наоборот. Их Claude for Healthcare:

  • Работает только с врачами и клиниками, не с пациентами напрямую
  • Прошел сертификацию FDA как "второе мнение" для диагнозов
  • Все рекомендации проверяет живой врач
  • Стоит $5000 в месяц - только для учреждений

Anthropic поняли главное: ИИ в медицине - это инструмент для профессионалов, а не замена им. OpenAI же решила, что GPT-5 умнее среднего терапевта. Результат видим.

Так можно ли доверять? (Короткий ответ: нет)

Вот простой алгоритм, который спасет тебе жизнь:

1 Симптомы есть? Спроси у Гугла

Прочитай 2-3 статьи с разных сайтов. Посмотри, что пишут. Запомни ключевые термины.

2 Все еще беспокоит? Иди к врачу

Расскажи симптомы. Упомяни, что читал в интернете. Врач либо успокоит, либо назначит анализы.

3 Хочешь второе мнение? Используй ИИ

Но только после визита к врачу. И только чтобы понять альтернативные варианты. Не наоборот.

ChatGPT Health - это эксперимент на живых людях. OpenAI тестирует, насколько далеко можно зайти с генеративным ИИ. Плата за ошибку - человеческие жизни. Техасский случай не первый. Просто первый, где есть тело.

Google со своим AI Overviews уже обжегся. Отключил опасные функции. Добавил предупреждения. OpenAI же продолжает играть в русскую рулетку с пользователями. Потому что каждый медицинский запрос - это данные для обучения. А данные ценнее, чем единичные смерти.

Прогноз? К марту 2026 FDA ограничит ChatGPT Health. Заставит добавлять "Это может убить вас" к каждому ответу. Или вообще закроет медицинский функционал для рядовых пользователей. Но пока - это дикий запад. Где твой цифровой врач может ошибиться. И где за ошибку платишь ты, а не он.

P.S. Если все-таки решил пользоваться - хотя бы прочитай наше руководство о том, как проверять ИИ-сервисы на опасные ошибки. Там есть конкретные промпты, которые выявят бредовые советы до того, как ты им последуешь.