Платформы AI начали портиться - это не паранойя
Вы заметили? За последние шесть месяцев ответы от GPT-5 стали странно шаблонными. Claude 4 начал постоянно отказываться от сложных задач с формулировкой "я не могу помочь с этим". API-лимиты урезали в три раза при том же ценнике. Это не баг - это фича новой экономики AI.
Мы наблюдаем классическую эншитификацию: процесс, когда технологическая платформа, захватив рынок, начинает систематически ухудшать качество сервиса, одновременно повышая цены и ограничивая функционал. Тот же путь прошли социальные сети, облачные хранилища, стриминговые сервисы. Теперь очередь AI.
Эншитификация (enshittification) - термин, введенный журналистом Кори Доктороу. Описывает цикл, когда платформы сначала привлекают пользователей отличным сервисом, затем монетизируют внимание пользователей, продавая его бизнесам, и наконец выжимают из всех участников максимум, ухудшая продукт для всех.
Три стадии AI-эншитификации: где мы сейчас?
Большинство платформ находятся на второй стадии, некоторые уже перешли на третью. Вот как это выглядит на практике в январе 2026:
| Стадия | Признаки (2026) | Примеры |
|---|---|---|
| 1. Захват рынка | Щедрые квоты, агрессивное ценообразование, открытый доступ к мощным моделям | Anthropic в 2024: Claude 3 Opus за $0.03 за 1K токенов |
| 2. Монетизация | Введение ограничений, урезание бесплатных тарифов, сложная тарификация | OpenAI GPT-5: ограничение 10 запросов в минуту на стандартном тарифе (было 60) |
| 3. Выжимание | Агрессивная ценовая политика, искусственные ограничения, снижение качества | Google Gemini Ultra: удаление возможности тонкой настройки, +40% к цене за 2025 год |
Самый тревожный признак третьей стадии - снижение качества моделей без явного объявления. Разработчики заметили, что с ноября 2025 GPT-5 стал на 15% чаще отклонять запросы на генерацию кода со ссылкой на "политику безопасности". При этом в документации об этом - ни слова.
Пять красных флагов, что ваш AI-провайдер портится
Как отличить временные технические проблемы от системной деградации? Вот контрольный список:
- Скрытое урезание контекста - модель "забывает" информацию из начала длинного промпта, хотя лимит токенов не изменился
- Рост отказов по этическим причинам - там, где раньше модель просто выполняла задачу, теперь требует многократных переформулировок
- Необъявленные изменения в API - ответы приходят в другом формате, меняются названия параметров, ломается ваш код
- Псевдо-улучшения - вместо реального апгрейда модели вам предлагают "новый улучшенный интерфейс" с урезанным функционалом
- Ценовые ловушки - введение сложных схем тарификации, где легко превысить лимит и получить огромный счет
Локальные LLM 2026: какие модели действительно работают
Хорошие новости: пока облачные гиганты портят свои продукты, локальные модели совершили квантовый скачок. Вот что стоит рассмотреть для миграции прямо сейчас:
1 Llama 3.3 70B - золотая середина
Вышла в декабре 2025, требует 48 ГБ VRAM (две RTX 4090 или одна профессиональная карта). По качеству кода и рассуждений догоняет GPT-4 Turbo, но без искусственных ограничений. Поддерживает контекст 128K токенов. Лицензия разрешает коммерческое использование.
2 Qwen 2.5 72B - для неанглийских языков
Alibaba выпустила эту модель в ноябре 2025 с фокусом на мультиязычность. Русский, китайский, арабский - качество сопоставимо с английским. Особенно сильна в анализе документов. Требует примерно те же ресурсы, что и Llama.
3 Mixtral 8x22B - экономия ресурсов
Mistral AI обновила свою смесь экспертов в январе 2026. При 44B активных параметров показывает результаты на уровне 70B моделей. Работает на 24 ГБ VRAM - вдвое дешевле в эксплуатации. Идеально для старта миграции.
Важный нюанс: локальные модели требуют инфраструктурных вложений. Но считайте - один мощный сервер с 4x RTX 5090 (когда выйдут) окупится за 8-12 месяцев по сравнению с корпоративным тарифом OpenAI на команду из 10 разработчиков.
Не верьте маркетингу "локальных" решений от больших компаний. Microsoft, Google и Amazon предлагают "локальное развертывание", которое на деле требует постоянного подключения к их облаку для валидации лицензии. Это ловушка.
Практическая миграция: как не сломать бизнес-процессы
Резкий переход убьёт продуктивность. Вот поэтапный план, который мы тестировали с клиентами:
Недели 1-2: Аудит зависимостей
Составьте полный список всех интеграций с облачными AI-сервисами. Особое внимание - системы, где критична стабильность ответов. Например, если у вас AI-агенты обрабатывают финансовые транзакции, с ними нужно работать аккуратно.
Недели 3-4: Тестовый стенд
Разверните локальную модель на отдельном сервере. Начните с не-критических задач: генерация документации, анализ логов, проверка кода. Сравните качество с облачным решением. Не ожидайте 100% совпадения - ищите компромисс между качеством и независимостью.
Недели 5-8: Параллельный запуск
Настройте систему, где запросы дублируются в облако и локально. Сравнивайте ответы, настраивайте промпты. Этот этап критически важен для задач безопасности - локальные модели уязвимы для промпт-инъекций так же, как и облачные.
Недели 9-12: Поэтапный переход
Начните переводить отделы один за другим. Сначала внутренние инструменты, затем продукты для клиентов. Держите облачное решение как fallback на случай проблем.
Что делать с безопасностью локальных моделей?
Главный страх при переходе на локальные LLM - безопасность. И он обоснован. Но проблемы другие:
- Нет риска утечки данных к провайдеру (плюс)
- Но есть риски отравления ваших собственных данных
- И классические промпт-инъекции никуда не делись
Решение - изолированная среда. Запускайте модели в Docker-контейнерах с жёсткими лимитами на сетевой доступ. Все промпты - через валидацию и санитизацию. И главное - регулярное обновление моделей. Сообщество выпускает патчи для уязвимостей быстрее, чем корпорации.
Будущее: гибридная архитектура как новая норма
К концу 2026 успешные компании будут использовать трёхуровневую архитектуру:
- Локальные модели для 80% повседневных задач (код, анализ, креатив)
- Специализированные облачные API для узких задач, где качество критично (медицинская диагностика, юридический анализ)
- Собственные дообученные модели на корпоративных данных для конкурентных преимуществ
Эта архитектура не только защищает от эншитификации, но и готовит к возможному коллапсу AI-инфраструктуры. Когда (не если, а когда) один из крупных провайдеров резко поднимет цены в 3 раза или урежет функционал - у вас будет план Б.
И последнее: не ждите, пока станет совсем плохо. Эншитификация - процесс необратимый. Как только платформа начинает портиться, она не останавливается. Сейчас ещё есть время на плавную миграцию. Через полгода придётся делать это в пожарном режиме.
Начните с аудита в этом месяце. Купите одну мощную видеокарту для тестов. Попробуйте запустить Llama 3.3 на простых задачах. Первый шаг самый важный - и он не требует отказа от облачных сервисов. Просто создайте альтернативу.
Потому что в 2026 году зависимость от одной AI-платформы опаснее, чем отсутствие AI вообще.