Recommender Systems 2026: XGBoost против нейросетей, реальность индустрии | AiManual
AiManual Logo Ai / Manual.
15 Фев 2026 Новости

Рекомендательные системы в 2026: почему XGBoost и CatBoost все еще правят бал, а нейросети — редкие гости

Правда о рекомендательных системах в 2026: почему 80% компаний используют XGBoost и LightGBM, а не нейросети. Анализ причин от инженеров из Yandex, Ozon и VK.

Тихий бунт против хайпа

Откройте любой доклад с RecSys 2025 или NeurIPS — там говорят про трансформеры для рекомендаций, двусторонние внимания, нейросетевые ранжировщики. Звучит впечатляюще. Потом зайдите на любой продуктовый стендап в Ozon, Wildberries или даже в том же Яндекс.Музыке — и услышите про «апгрейд CatBoost», «новые фичи для LightGBM» и «оптимизацию inference для XGBoost». Два разных мира.

💡
Согласно опросу среди 200+ ML-инженеров из российских и европейских продуктовых команд (проведенному в январе 2026), 82% используют gradient boosting для ранжирования в продакшене. Нейросетевые модели — только в 11% случаев, и почти всегда в гибридных системах или как экспериментальные ветки.

Парадокс? Нет. Простая математика. Нейросеть для рекомендаций — это не про точность. Это про сложность, стоимость и предсказуемость. А в бизнесе, особенно после волны оптимизаций 2024-2025, предсказуемость выигрывает у хайпа.

«Зачем нам GPT-4, если у нас есть таблица умножения?»

Представьте типичную задачу: ранжировать товары для пользователя, который только что посмотрел iPhone 16 Pro. Нейросеть (допустим, какой-нибудь Two-Tower Transformer с cross-attention) будет анализировать семантику описаний, историю просмотров за год, даже время суток. XGBoost возьмет 50-100 заранее приготовленных фич: цена товара, рейтинг, количество покупок в категории, был ли товар в корзине, дельта цены относительно среднего чека. И выдаст результат за 2 миллисекунды вместо 200.

Главная причина не в том, что boosting лучше. Он просто дешевле. Обучение CatBoost на 100 млн строк — это несколько часов на одной машине с 256 ГБ RAM. Обучение нейросети с аналогичными данными — это кластер GPU, неделя тюнинга гиперпараметров и риск, что завтра придет новый SOTA-архитектура и ваш эксперимент устареет еще до запуска в A/B-тест.

Инженеры, которые проектируют рекомендательные системы с нуля, знают этот трюизм: сначала запустите линейную регрессию или дерево. Потом добавьте фич. Потом перейдите на boosting. И только когда вы упретесь в потолок метрик (а это происходит далеко не всегда), начинайте думать про нейросети.

Слон в посудной лавке: где нейросети все-таки прорываются

Есть три ниши, где табличные модели пасуют, и нейросети берут реванш. Первая — кандидатная генерация (candidate generation). Когда из каталога в 100 миллионов товаров нужно быстро отобрать 1000 релевантных. Здесь двусторонние модели (DSSM, Sentence-BERT) работают как фильтр, создавая эмбеддинги пользователей и товаров. Вторая ниша — мультимодальность. Рекомендовать на основе изображений, видео или аудио без нейросетей в 2026 году уже невозможно. Третья — cold start. Для нового пользователя или нового товара, у которого нет истории взаимодействий, нейросеть может использовать контентные признаки.

Но даже здесь часто работает гибрид: нейросеть генерирует кандидатов, а boosting их ранжирует. Как в том же Catalog AI от Amazon, где нейросети переписывают описания товаров, но итоговый ранжировщик — все тот же XGBoost.

Задача Доля использования boosting (2026) Доля использования нейросетей (2026) Причина выбора
Ранжирование (ranking) ~85% ~10% Скорость, интерпретируемость, стоимость
Кандидатная генерация (candidate generation) ~30% ~65% Работа с эмбеддингами, семантический поиск
Cold start рекомендации ~25% ~70% Контентные признаки, мультимодальность

Интерпретируемость против черного ящика: битва за доверие

Продукт-менеджер приходит к ML-инженеру: «Почему у нас в рекомендациях вылез этот странный товар?» С CatBoost можно открыть дерево, посмотреть, какая фича дала самый большой прирост. С нейросетью — только развести руками или начать говорить про attention maps. В 2026 году объяснимость (explainability) — не просто модное слово, а требование бизнеса. Особенно после истории с разоблачением word2vec, когда оказалось, что даже простые модели хранят сюрпризы.

Финансовые сервисы, медицина, страхование — там, где за рекомендацией стоит юридическая ответственность, нейросети пробиваются с трудом. Потому что нельзя сказать клиенту: «ИИ так захотел». Нужно показать правило: «Вам предложили эту страховку, потому что вы мужчина 35 лет, живете в Москве и у вас есть ипотека». Boosting делает это из коробки. Нейросеть требует дополнительных инструментов вроде разреженных автоэнкодеров для интерпретации, что добавляет сложности.

Инфраструктурный ад: что скрывается за красивыми графиками

Запустить CatBoost в продакшен — это добавить одну бинарюху в Docker-образ, которая съест 200 МБ RAM на инстансе. Запустить нейросеть — это поднять Triton Inference Server, настроить GPU-драйверы, обеспечить низкую задержку при батчинге, разобраться с квантованием модели в INT8, чтобы она вообще влезла в память.

А потом начинаются проблемы с масштабированием. Тысяча RPS на boosting-модели — это десяток CPU-инстансов. Тысяча RPS на нейросети — это несколько дорогих GPU-инстансов с риском, что при скачке нагрузки инференс упадет по таймауту. Многие команды, особенно после анализа провалов AI-проектов, специально избегают нейросетей в рекомендациях, чтобы не создавать себе операционных кошмаров.

Тренд 2025-2026: компании, которые все-таки внедряют нейросетевые рекомендатели, часто используют их как «второй уровень» (re-ranking). Первый, грубый ранжинг делает быстрый boosting, отбирает топ-100. Второй уровень — маленькая нейросеть (часто даже без GPU) пересортировывает эти 100 кандидатов, учитывая более сложные паттерны. Такой каскад дает прирост точности без убийства инфраструктуры.

Карьерный совет от того, кто обжегся

Молодые ML-инженеры гонятся за хайповыми архитектурами — хотят знать про трансформеры, RL для рекомендаций, как в Real-Time Bidding. Это полезно для резюме. Но на собеседованиях в Ozon, Avito, Яндекс спрашивают другое: как вы будете feature engineering для табличных данных? Как бороться с leakage в временных рядах? Как мониторить дрифт предсказаний boosting-модели?

Потому что 90% работы — это не архитектура модели. Это данные, фичи, пайплайны, A/B-тесты. Нейросеть не спасет от глупых ошибок в данных. А вот хороший feature store и грамотный бэктест — спасет.

Мой прогноз на 2027-2028? Нейросети продолжат захватывать ниши там, где без них действительно нельзя — в работе с видео, аудио, сложными последовательностями. Но в классическом e-commerce, медиа, соцсетях boosting останется рабочим инструментом. Потому что бизнес любит простые, дешевые и предсказуемые решения. А нейросети, увы, все еще сложные, дорогие и капризные. Как тот самый ИИ-ассистент, который ломается в бизнес-среде от любого изменения контекста.

Так что если хотите делать рекомендательные системы, которые будут работать, а не просто красиво выглядеть на графиках — учите не только PyTorch, но и XGBoost. И помните: иногда лучшая модель — это та, которую можно объяснить менеджеру за две минуты у кофемашины. А не та, что требует целого бенчмарка для проверки ее решений.