Open source AI на Hugging Face весна 2026: рост и концентрация моделей | AiManual
AiManual Logo Ai / Manual.
10 Май 2026 Новости

Состояние open source AI на Hugging Face весной 2026: рост экосистемы и концентрация моделей

Анализ экосистемы Hugging Face: более 2 млн моделей, но 80% — вариации BERT. Почему платформа превращается в монополиста и что это значит для open source AI.

Миллионы моделей, два гиганта и один вопрос

Весной 2026 года Hugging Face перешагнул отметку в 2 миллиона публичных моделей. Ещё три года назад их было около 500 тысяч. Рост впечатляющий, но цифры обманчивы. Если заглянуть под капот, картина оказывается куда менее радужной, чем обещают заголовки пресс-релизов.

Примерно 70% новых моделей, загружаемых в хаб каждый месяц, — это либо квантованные версии одних и тех же архитектур, либо простые fine-tune'ы BERT, RoBERTa и DeBERTa. Настоящее разнообразие? Его почти нет. И это не проблема платформы — это симптом зрелости индустрии, где выигрывают стандарты, а не эксперименты.

Если в 2023 году сообщество ликовало по поводу каждой новой архитектуры, то в 2026 побеждает утилитарность. Решение «взятьLlama и дообучить» стало настолько дёшево, что изобретать велосипед перестали даже исследовательские лаборатории.

Эффект платформы: кто кормит зверя

Hugging Face превратился не просто в склад моделей, а в операционную систему для open source AI. Через поглощение ключевых библиотек вроде Sentence Transformers платформа замкнула на себе цепочку: обучение — хранение — инференс. В марте 2026 года вышел Hugging Face Hub v4.0, который ввёл единый протокол для всех типов моделей (LLM, diffusion, эмбеддинги, агенты). Это одновременно и благо, и проклятие.

С одной стороны, унификация упрощает жизнь разработчикам. Не надо думать, в каком формате сохранить веса — Hub сам конвертирует PyTorch, TensorFlow, JAX. С другой — создаёт барьеры для альтернативных экосистем. Например, недавний скандал с Anthropic показал, что крупные игроки боятся зависимости от единой точки входа. И их опасения не беспочвенны.

Концентрация в цифрах: таблица и комментарий

КатегорияДоля на Hugging Face (апрель 2026)Доля в загрузках
BERT/RoBERTa/DeBERTa (любые вариации)72%45%
Llama 3/4 и их дообучения12%35%
Mistral, Qwen, DeepSeek10%15%
Остальные (T5, GPT-NeoX, Falcon, Phi и др.)6%5%

Цифры говорят сами за себя: 94% моделей — это производные всего трёх семейств. Причём по загрузкам Llama доминирует, несмотря на меньшее количество вариантов. Люди не экспериментируют, они используют проверенное. Это естественно для инфраструктурной платформы, но убийственно для инноваций.

Где спряталось разнообразие? Датасеты и агенты

Парадоксально, но настоящий рост происходит не в моделях, а в датасетах и инструментах для агентов. По данным Hugging Face на май 2026, количество публичных датасетов превысило 350 тысяч — это в 3 раза больше, чем в 2024. Комьюнити начинает осознавать: модель без хороших данных — тело без души. Агенты же — главный тренд 2025–2026 годов. Неазиатские open-source архитектуры пока уступают закрытым в задачах планирования, но уже догоняют в скорости исполнения. И здесь Hugging Face снова выигрывает за счёт интеграции с LangChain, CrewAI и собственным пакетом agents.

💡
На платформе уже больше 50 тысяч моделей, оптимизированных под агентные сценарии. Большинство из них — дообучения Llama 4, но есть и экспериментальные гибриды, собранные через mergekit. Кстати, компания Arcee AI активно продвигает концепцию «модель как роутер» — и её подход набирает обороты именно на Hugging Face.

Битва платформ: Hugging Face vs OpenRouter

Нельзя рассматривать Hugging Face в вакууме. Параллельно набирает обороты OpenRouter, который к маю 2026 обработал уже 5 триллионов токенов. Китайские модели доминируют на OpenRouter по объёму трафика, но на Hugging Face они же занимают лишь 8% в загрузках. Почему? Потому что Hugging Face — это «супермаркет» с полками, а OpenRouter — «ресторан быстрого питания», где пробуют новинки. Разные бизнес-модели дают разную картину потребления.

Для open-source сообщества это означает выбор: идти в массовое распространение через Hugging Face (огромная аудитория, но высокая конкуренция видимости) или через OpenRouter (быстрая монетизация, но меньше фич для хостинга).

Скрытая проблема: заброшенные модели и шум

Есть и обратная сторона изобилия. Анализ, проведённый независимыми исследователями в апреле 2026, показал: около 40% моделей в хабе не обновлялись более года, а 15% вообще нельзя запустить из-за устаревших зависимостей. Hugging Face ввёл автоматическое тестирование для новых моделей, но чистить старые не рискует — это снизит показатели «роста экосистемы», на которые давят инвесторы.

В итоге мы получаем гигантское кладбище забытых экспериментов, которое создаёт иллюзию прогресса. Настоящие рабочие лошадки — те самые 5–6 модельных семейств — обслуживают 95% всех запросов к API через Spaces и Inference Endpoints.

Куда движется экосистема?

Прогноз, который я слышу от инсайдеров: к концу 2026 года Hugging Face начнёт активно модерировать контент. Удалять явно дублирующиеся модели и предлагать «золотой стандарт» для каждой задачи. Это логичный шаг монополиста, но он ударит по идеологии открытости. Если платформа решает, какие модели достойны внимания, то это уже не open source в классическом понимании, а управляемый маркетплейс.

Что делать разработчику, который не хочет зависеть от одного вендора? Обратить внимание на TinyML и квантованные модели, которые можно развернуть локально без интернета. Или посмотреть в сторону децентрализованных реестров моделей на основе блокчейна (такие стартапы уже появились). Но пока Hugging Face остаётся безальтернативным выбором для тех, кто хочет, чтобы его модель заметили.

Подписаться на канал