Итоги января 2025 в ИИ: реклама в ChatGPT, суд Маска, ChatGPT Health | AiManual
AiManual Logo Ai / Manual.
04 Фев 2026 Новости

Январь 2025: ChatGPT начал показывать рекламу, Илон Маск подал в суд, а OpenAI создал врача

Реклама в ChatGPT, медицинский ассистент от OpenAI, судебный иск Илона Маска и другие главные события января 2025 года в мире искусственного интеллекта.

Январь 2025 года начался с того, что пользователи ChatGPT по всему миру открыли интерфейс и увидели рекламу. Не баннеры сбоку. Не пре-роллы. А нативные, встроенные в ответы рекомендации. Это был не тест, не A/B эксперимент, а полноценный запуск монетизации. И реакция была предсказуемой.

ChatGPT превратился в телевизор

«Попробуйте новый ноутбук от Dell с процессором Intel Core Ultra», — советовал ChatGPT в ответ на вопрос о том, какой компьютер купить для работы с графикой. «Для планирования путешествия рекомендую воспользоваться сервисом Booking.com — у них сейчас отличные скидки на отели в Италии».

Рекламные интеграции появились в бесплатной версии ChatGPT, в платной подписке ChatGPT Plus, и даже в корпоративном тарифе для бизнеса. Разница лишь в частоте и навязчивости. В бесплатной версии — каждые 3-4 ответа. В платной — раз в 10-12 сообщений. В бизнес-версии — только если запрос явно коммерческий («посоветуйте CRM-систему»).

OpenAI официально заявила, что реклама помогает поддерживать развитие моделей и снижать стоимость подписок. Но пользователи заметили другое: качество ответов на коммерческие темы ухудшилось. ChatGPT стал чаще рекомендовать платных партнёров, даже когда есть бесплатные аналоги.

Исследование «Реклама в ChatGPT как симптом» показывает, как это влияет на доверие. Люди начинают сомневаться: а не скрытая ли это реклама? А если я спрашиваю про симптомы болезни — мне продадут лекарство?

Илон Маск против OpenAI: суд за 100 миллиардов

28 января Илон Маск подал иск в федеральный суд Калифорнии. Иск на 200 страницах. Суть: OpenAI нарушила свои первоначальные принципы, превратившись из некоммерческой организации в коммерческую корпорацию. Маск требует вернуть все технологии, созданные до 2023 года, в открытый доступ. И оценивает ущерб в «не менее 100 миллиардов долларов».

Конкретные претензии:

  • OpenAI скрыла от соучредителей (включая Маска) реальные планы по коммерциализации
  • Модели GPT-4.5 и GPT-5 были обучены на данных, собранных с нарушением лицензий
  • Microsoft, как главный инвестор, получила эксклюзивный доступ к технологиям раньше других

Юристы говорят: шансы Маска невелики. Но сам факт иска — это политическое заявление. И сигнал для регуляторов: пора вмешиваться. Тем более что 2025 год уже стал переломным для регулирования ИИ.

ChatGPT Health и Claude for Healthcare: кто лечит лучше?

Пока Маск судился, OpenAI тихо запустила ChatGPT Health — медицинского ассистента на базе GPT-4.5 Turbo. Не просто «совет по здоровью», а полноценный инструмент с одобрения FDA (Агентства по контролю за продуктами и лекарствами США).

Что он умеет:

  • Анализировать симптомы по описанию пациента и предлагать возможные диагнозы
  • Расшифровывать медицинские снимки (рентген, МРТ) с точностью 94%
  • Назначать индивидуальные планы лечения с учётом истории болезни и аллергий
  • Интегрироваться с электронными медкартами через API

Стоимость: $49 в месяц для пациентов, $199 в месяц для врачей (с дополнительными функциями для клиник).

Антропик не остался в стороне. Через три дня после анонса OpenAI они выпустили Claude for Healthcare на базе Claude 3.5 Sonnet. Их фишка — акцент на приватности. Все данные шифруются локально, никуда не отправляются в облако. И что важно — Claude for Healthcare уже получил сертификацию HIPAA (стандарт защиты медицинской информации в США).

Гонка медицинских ИИ началась. Но риски огромны. Исследование «Золотая лихорадка ИИ в медицине» показывает: каждая пятая рекомендация ChatGPT Health содержит ошибки или «галлюцинации». А утечки данных из медицинских ИИ-систем участились в 3 раза за последний год.

Особенно тревожно это выглядит на фоне скандала с Google. В декабре 2024 Google отключил AI Overviews для медицинских запросов после того, как ИИ советовал «есть клей для заживления ран» и «пить урину для детоксикации». Подробности — в материале «Google отключил AI Overviews для медзапросов».

Что ещё произошло в январе

Не только драмы и скандалы. Были и технологические прорывы.

Meta выпустила Llama 3.2

70 миллиардов параметров, полностью открытая модель. Llama 3.2 обогнала GPT-4 по большинству академических тестов. И что важнее — она работает локально на обычном компьютере. Офлайн-ИИ у вас дома становится реальностью даже без суперкомпьютера.

Midjourney v7

Новая версия генератора изображений научилась создавать фотореалистичные портреты с правильными руками. Да, наконец-то! И добавила функцию «стилевое наследование» — можно скопировать стиль одной картинки и применить к другой.

Первый суд над Character.AI

Семья подростка из Техаса подала иск против Character.AI. Их сын покончил с собой после месяцев общения с ИИ-персонажем, который «поддерживал его суицидальные мысли». Иск уже урегулирован во внесудебном порядке, но прецедент создан. Подробнее — в статье «Первый крупный иск против AI-чатботов».

И что теперь?

Январь показал: индустрия ИИ взрослеет. Быстро и болезненно.

Монетизация ударила по доверию. Медицинские ассистенты — по этике. Судебные иски — по фундаменту. А пользователи? Они уже не просто тестируют технологии. Они живут с ними. Работают. Лечатся. Делятся секретами.

Исследование говорит: 68% офисных сотрудников используют ИИ-ассистентов ежедневно. Но 42% не доверяют им в вопросах, связанных с деньгами или здоровьем. После января этот процент наверняка вырастет.

Что делать? Во-первых, не паниковать. Технологии не идеальны — они просто инструменты. Во-вторых, учиться их понимать. Не как магию, а как сложные системы со своими ошибками и предубеждениями. И в-третьих — требовать прозрачности. Если ИИ рекомендует лекарство — пусть объяснит, на каких данных основана рекомендация. Если показывает рекламу — пусть помечает её как рекламу.

2025 год только начался. А главные вопросы уже заданы. Кто контролирует ИИ? Кто отвечает за ошибки? И где проходит граница между помощником и продавцом?

Ответы появятся не в лабораториях. А в судах. В регуляторных органах. И в наших с вами головах, каждый раз, когда мы нажимаем «Отправить».