То, чего все боялись, случилось
С начала февраля 2026 года бесплатные пользователи ChatGPT видят не только ответы нейросети. Между абзацами текста теперь всплывают рекламные баннеры - от курсов по крипте до сомнительных финансовых советов. OpenAI официально подтвердила: это не баг, а новая монетизационная стратегия.
По данным внутреннего мониторинга OpenAI, средний пользователь теперь видит 3-5 рекламных вставок за 10-минутную сессию. В премиум-версии ChatGPT Plus (25$/месяц) рекламы пока нет - но кто гарантирует, что не появится завтра?
Термин 'enshittification' (от английского 'enshit' - превращать в дерьмо) взлетел в трендах X/Twitter за неделю. Его придумал журналист Кори Доктороу еще в 2023, описывая цикл: платформа привлекает пользователей качеством → монополизирует внимание → продает это внимание рекламодателям → качество падает. ChatGPT прошел этот путь за три года вместо десяти.
Почему реклама в AI - это не просто баннеры
Проблема глубже, чем раздражающие pop-up'ы. Реклама в LLM меняет саму природу ответов.
- Контекстная подстройка: Модель GPT-4.5 (последняя версия на февраль 2026) теперь учитывает рекламные теги при генерации ответов. Спросите про инвестиции - получите ответ с акцентом на рекламируемые брокеры.
- Приватность на продажу: Как показало наше расследование о приватности ChatGPT, диалоги уже давно используются для тренировки моделей. Теперь к этому добавился таргетинг рекламы.
- Когнитивная нагрузка: Появились первые исследования (Университет Торонто, январь 2026), показывающие, что рекламные вставки снижают концентрацию при работе с AI на 23%.
Экзодус в локальные LLM: цифры не врут
GitHub-репозиторий LocalLLaMA за первую неделю февраля 2026 получил на 47% больше звезд, чем за весь январь. Ollama - самый популярный инструмент для запуска локальных моделей - скачали 850 тысяч раз за 7 дней (данные на 15 февраля).
| Локальная модель | Размер (параметры) | Требования VRAM | Качество vs GPT-4 |
|---|---|---|---|
| Llama 3.1 70B | 70 млрд | 48+ GB | 95% |
| Qwen2.5 32B | 32 млрд | 24 GB | 88% |
| Mistral Large 2 | 123 млрд | 80+ GB | 98% |
| Phi-4 14B | 14 млрд | 12 GB | 82% |
'Качество vs GPT-4' - субъективная оценка сообщества по тестам MMLU, HellaSwag и человеческой оценке. Важный нюанс: локальные модели не деградируют внезапно из-за политики компании. Вы качаете файл - он ваш навсегда.
Кто бежит первым и почему
Юристы. Врачи. Финансовые аналитики. Все, кто работает с конфиденциальными данными, массово уходят с облачных AI. После нашего гайда для юристов в январе, запросы на консультации по локальным LLM выросли в 5 раз.
Причина проста: клиентские тайны + рекламные алгоритмы = потенциальная утечка. OpenAI в пользовательском соглашении четко пишет - они могут использовать диалоги для улучшения сервиса. А улучшение теперь включает подбор рекламы.
Парадокс: чем больше OpenAI пытается монетизировать ChatGPT, тем быстрее растет рынок ее конкурентов. Mistral AI только что привлекла 600 млн евро - в основном на развитие локальных решений для корпораций.
Технический барьер? Уже нет
В 2023 году запустить локальную LLM могли только гики с топовыми видеокартами. В 2026 - любой, у кого есть ноутбук за 1500$. Ollama превратила установку в три команды в терминале:
Главный прорыв - квантизация. Модели в 4-битном формате почти не теряют качество, но требуют в 4 раза меньше памяти. Llama 3.1 70B, которая раньше просила 140 GB RAM, теперь умещается в 48 GB VRAM. А 14-миллиардные модели работают на интегрированной графике.
Сравнение инструментов мы делали в полном гиде по Ollama и альтернативам. TL;DR: если вы не хотите разбираться с тонкостями - качайте LM Studio. Хотите максимум контроля - собирайте llama.cpp из исходников.
Чего не хватает локальным моделям (пока)
Multimodality. ChatGPT с GPT-4V до сих пор лучше понимает картинки, чем любая локальная модель. Но разрыв сокращается: LLaVA-Next 34B уже показывает результаты на уровне GPT-4V в тестах на зрение.
Актуальность знаний. Локальные модели застывают во времени даты своего релиза. GPT-4.5 знает новости вчерашнего дня. Решение: RAG (Retrieval-Augmented Generation). Вы настраиваете модель так, чтобы она искала свежую информацию в ваших документах или выбранных источниках.
- Проблема: Модель не знает, что произошло вчера
- Решение: Настроить автоматическую загрузку RSS-лент или подключить поиск по вашей базе знаний
- Результат: Модель отвечает на вопросы о текущих событиях, используя ваши источники
Интеграции. ChatGPT плагины - удобная штука. Но локальные альтернативы уже есть: OpenWebUI, AnythingLLM, LocalAI. Они позволяют подключать модели к календарю, почте, базам данных.
Что будет дальше? Два сценария
Пессимистичный: OpenAI добавляет рекламу и в платную версию, но менее навязчивую. Другие облачные AI (Claude, Gemini) следуют за лидером. Локальные LLM остаются нишевым решением для параноиков и специалистов.
Оптимистичный (и более вероятный): массовый уход пользователей заставляет OpenAI пересмотреть стратегию. Бесплатная версия остается с рекламой, но появляется промежуточный тариф за 10$/месяц без нее. Локальные модели становятся стандартом для бизнеса - как когда-то локальные серверы стали стандартом после утечек данных в облаках.
Мой прогноз на конец 2026: 40% корпоративных пользователей AI перейдут на локальные или гибридные решения. Цена видеокарт с 24+ GB VRAM упадет на 30% из-за спроса. Появятся 'AI-системные интеграторы' - компании, которые настраивают локальные LLM для бизнеса, как раньше настраивали CRM.
Совет, который сейчас кажется радикальным, но через год станет очевидным: не вкладывайтесь в годовые подписки на облачные AI. Купите видеокарту с 24 GB VRAM и освойте Ollama. Это окупится за 8 месяцев.
И последнее: если вы все еще используете ChatGPT для чувствительных задач - представьте, что каждый ваш диалог читает не только нейросеть, но и отдел маркетинга, который подбирает, какую рекламу вам показать. Стало некомфортно? Добро пожаловать в клуб. Дверь в LocalLLaMA открыта.