Январь 2025 года начался с того, что пользователи ChatGPT по всему миру открыли интерфейс и увидели рекламу. Не баннеры сбоку. Не пре-роллы. А нативные, встроенные в ответы рекомендации. Это был не тест, не A/B эксперимент, а полноценный запуск монетизации. И реакция была предсказуемой.
ChatGPT превратился в телевизор
«Попробуйте новый ноутбук от Dell с процессором Intel Core Ultra», — советовал ChatGPT в ответ на вопрос о том, какой компьютер купить для работы с графикой. «Для планирования путешествия рекомендую воспользоваться сервисом Booking.com — у них сейчас отличные скидки на отели в Италии».
Рекламные интеграции появились в бесплатной версии ChatGPT, в платной подписке ChatGPT Plus, и даже в корпоративном тарифе для бизнеса. Разница лишь в частоте и навязчивости. В бесплатной версии — каждые 3-4 ответа. В платной — раз в 10-12 сообщений. В бизнес-версии — только если запрос явно коммерческий («посоветуйте CRM-систему»).
OpenAI официально заявила, что реклама помогает поддерживать развитие моделей и снижать стоимость подписок. Но пользователи заметили другое: качество ответов на коммерческие темы ухудшилось. ChatGPT стал чаще рекомендовать платных партнёров, даже когда есть бесплатные аналоги.
Исследование «Реклама в ChatGPT как симптом» показывает, как это влияет на доверие. Люди начинают сомневаться: а не скрытая ли это реклама? А если я спрашиваю про симптомы болезни — мне продадут лекарство?
Илон Маск против OpenAI: суд за 100 миллиардов
28 января Илон Маск подал иск в федеральный суд Калифорнии. Иск на 200 страницах. Суть: OpenAI нарушила свои первоначальные принципы, превратившись из некоммерческой организации в коммерческую корпорацию. Маск требует вернуть все технологии, созданные до 2023 года, в открытый доступ. И оценивает ущерб в «не менее 100 миллиардов долларов».
Конкретные претензии:
- OpenAI скрыла от соучредителей (включая Маска) реальные планы по коммерциализации
- Модели GPT-4.5 и GPT-5 были обучены на данных, собранных с нарушением лицензий
- Microsoft, как главный инвестор, получила эксклюзивный доступ к технологиям раньше других
Юристы говорят: шансы Маска невелики. Но сам факт иска — это политическое заявление. И сигнал для регуляторов: пора вмешиваться. Тем более что 2025 год уже стал переломным для регулирования ИИ.
ChatGPT Health и Claude for Healthcare: кто лечит лучше?
Пока Маск судился, OpenAI тихо запустила ChatGPT Health — медицинского ассистента на базе GPT-4.5 Turbo. Не просто «совет по здоровью», а полноценный инструмент с одобрения FDA (Агентства по контролю за продуктами и лекарствами США).
Что он умеет:
- Анализировать симптомы по описанию пациента и предлагать возможные диагнозы
- Расшифровывать медицинские снимки (рентген, МРТ) с точностью 94%
- Назначать индивидуальные планы лечения с учётом истории болезни и аллергий
- Интегрироваться с электронными медкартами через API
Стоимость: $49 в месяц для пациентов, $199 в месяц для врачей (с дополнительными функциями для клиник).
Антропик не остался в стороне. Через три дня после анонса OpenAI они выпустили Claude for Healthcare на базе Claude 3.5 Sonnet. Их фишка — акцент на приватности. Все данные шифруются локально, никуда не отправляются в облако. И что важно — Claude for Healthcare уже получил сертификацию HIPAA (стандарт защиты медицинской информации в США).
Гонка медицинских ИИ началась. Но риски огромны. Исследование «Золотая лихорадка ИИ в медицине» показывает: каждая пятая рекомендация ChatGPT Health содержит ошибки или «галлюцинации». А утечки данных из медицинских ИИ-систем участились в 3 раза за последний год.
Особенно тревожно это выглядит на фоне скандала с Google. В декабре 2024 Google отключил AI Overviews для медицинских запросов после того, как ИИ советовал «есть клей для заживления ран» и «пить урину для детоксикации». Подробности — в материале «Google отключил AI Overviews для медзапросов».
Что ещё произошло в январе
Не только драмы и скандалы. Были и технологические прорывы.
Meta выпустила Llama 3.2
70 миллиардов параметров, полностью открытая модель. Llama 3.2 обогнала GPT-4 по большинству академических тестов. И что важнее — она работает локально на обычном компьютере. Офлайн-ИИ у вас дома становится реальностью даже без суперкомпьютера.
Midjourney v7
Новая версия генератора изображений научилась создавать фотореалистичные портреты с правильными руками. Да, наконец-то! И добавила функцию «стилевое наследование» — можно скопировать стиль одной картинки и применить к другой.
Первый суд над Character.AI
Семья подростка из Техаса подала иск против Character.AI. Их сын покончил с собой после месяцев общения с ИИ-персонажем, который «поддерживал его суицидальные мысли». Иск уже урегулирован во внесудебном порядке, но прецедент создан. Подробнее — в статье «Первый крупный иск против AI-чатботов».
И что теперь?
Январь показал: индустрия ИИ взрослеет. Быстро и болезненно.
Монетизация ударила по доверию. Медицинские ассистенты — по этике. Судебные иски — по фундаменту. А пользователи? Они уже не просто тестируют технологии. Они живут с ними. Работают. Лечатся. Делятся секретами.
Исследование говорит: 68% офисных сотрудников используют ИИ-ассистентов ежедневно. Но 42% не доверяют им в вопросах, связанных с деньгами или здоровьем. После января этот процент наверняка вырастет.
Что делать? Во-первых, не паниковать. Технологии не идеальны — они просто инструменты. Во-вторых, учиться их понимать. Не как магию, а как сложные системы со своими ошибками и предубеждениями. И в-третьих — требовать прозрачности. Если ИИ рекомендует лекарство — пусть объяснит, на каких данных основана рекомендация. Если показывает рекламу — пусть помечает её как рекламу.
2025 год только начался. А главные вопросы уже заданы. Кто контролирует ИИ? Кто отвечает за ошибки? И где проходит граница между помощником и продавцом?
Ответы появятся не в лабораториях. А в судах. В регуляторных органах. И в наших с вами головах, каждый раз, когда мы нажимаем «Отправить».