Кто бы мог подумать? OpenRouter теперь говорит на китайском
Сегодня утром я открыл OpenRouter и почувствовал, будто попал в параллельную реальность. Топ-5 самых используемых моделей? Три из них китайские. Общий объем токенов за последний месяц? 3 триллиона. И 42% из них приходятся на модели из Поднебесной.
Еще в январе 2026 года ситуация была другой. GPT-5 держался в топе, Claude пытался не отставать. Сегодня же DeepSeek-R1 занимает второе место по популярности, уступая только Arcee Trinity Large Preview. Qwen 2.5 MoE 32B стабильно в первой пятерке. А новая Yi-34B-Chat от 01.AI набирает обороты так быстро, что кажется, будто ее выпустили вчера (хотя на самом деле - три недели назад).
По данным OpenRouter на 20.02.2026, китайские модели обработали 1.26 триллиона токенов за последние 30 дней. Для сравнения: все модели OpenAI вместе взятые - 0.87 триллиона.
Почему разработчики массово переходят на китайские модели?
Ответ прост: цена и качество. Возьмем DeepSeek-R1. Его API стоит $0.14 за 1M входных токенов и $0.28 за выходные. GPT-5 Turbo? $0.30 и $0.60 соответственно. Разница в два раза.
Но дело не только в деньгах. Китайские модели 2025-2026 годов показывают результаты в китайском и английском языках, которые раньше были недостижимы для open-source. Особенно в математике и коде. DeepSeek-R1 на тестах MATH набирает 86.3% - всего на 2% меньше, чем GPT-5.
А еще есть контекст. Qwen 2.5 MoE 32B поддерживает 128K токенов. Бесплатно. Попробуйте получить такой контекст у Anthropic за те же деньги.
Архитектурное преимущество: MoE против монолитов
Западные гиганты до сих пор любят огромные монолитные модели. Китайские разработчики пошли другим путем. Qwen 2.5 MoE 32B использует архитектуру Mixture of Experts - 32 эксперта по 2.7B параметров каждый, но активируются только 4.
Результат? Скорость инференса в 3-4 раза выше, чем у моделей сравнимого качества. И это на стандартном железе. Не нужно арендовать кластер за миллион долларов в месяц.
Это не случайность. Как писалось в нашей предыдущей статье «Китайский AI выбрал свой путь: MoE-архитектуры и локальное железо против западных гигантов», это сознательная стратегия. Китай строит экосистему, где модели оптимизированы под доступное железо, а не наоборот.
Рейтинг OpenRouter: как китайские модели обходят алгоритм
Недавнее обновление алгоритма OpenRouter (помните, мы писали об этом в статье «Open-weight модели вытеснили проприетарных гигантов») добавило фактор «прозрачности». И китайские модели выиграли вдвойне.
Во-первых, они open-weight. Веса доступны на Hugging Face. Можно скачать, проверить, дообучить. Во-вторых, их лицензии (в большинстве случаев) разрешают коммерческое использование. Даже Qwen, который раньше вызывал вопросы, с версии 2.5 перешел на более открытую лицензию.
| Модель | Рейтинг OpenRouter | Цена за 1M входных | Контекст | Токенов за месяц |
|---|---|---|---|---|
| Arcee Trinity Large Preview | 9.8/10 | $0.18 | 128K | 412B |
| DeepSeek-R1 | 9.6/10 | $0.14 | 64K | 587B |
| Qwen 2.5 MoE 32B | 9.5/10 | $0.12 | 128K | 329B |
| GPT-5 Turbo | 9.4/10 | $0.30 | 128K | 721B |
| Yi-34B-Chat | 9.3/10 | $0.15 | 32K | 187B |
Обратите внимание на цифры. DeepSeek генерирует почти 600 миллиардов токенов в месяц. Это больше, чем у Claude 4. И это при том, что модель появилась всего четыре месяца назад.
Что происходит на рынке? Разработчики голосуют кошельком
Спросите любого стартапера, запускающего AI-продукт в 2026 году. Первый вопрос: «А на чем дешевле?» Второй: «А что с качеством?» Третий: «А можно локально?»
Китайские модели отвечают на все три вопроса лучше западных аналогов. Дешевле? Да. Качество? Сравнимо. Локально? Веса есть на Hugging Face, берите.
Это создает эффект снежного кома. Разработчики пишут код под API DeepSeek или Qwen. Потом понимают, что можно развернуть у себя. Экономят на API-вызовах. Потом дообучают под свои задачи. Получают кастомную модель, которая работает лучше и дешевле.
Внимание: не все китайские модели одинаково открыты. Некоторые имеют ограничения на коммерческое использование. Всегда проверяйте лицензию перед развертыванием в продакшене.
Инструменты вроде Modelgrep упрощают поиск. Можно найти хостинг-провайдера, который предлагает нужную модель за копейки. Или сравнить цены между разными API.
Политика и технологии: почему Китай впереди?
ЛеКун в Давосе говорил об этом прямо: «Китайские open-source модели лучше западных». И он не шутил. Государственная поддержка, инвестиции в исследования, фокус на практическом применении - все это дает результат.
Китайские компании не пытаются создать AGI. Они создают модели, которые решают конкретные задачи: перевод, кодогенерация, анализ данных. И делают это эффективно.
Еще один фактор: локальный рынок. Китай - огромная страна с собственным интернетом. Модели, обученные на китайских данных, лучше понимают местный контекст. А потом этот опыт переносится на английский.
Что будет дальше? Прогноз на 2026-2027
Тренд очевиден. Китайские модели будут занимать все больше места на OpenRouter и других агрегаторах. Уже сейчас появляются специализированные модели для нишевых задач: медицинские, юридические, финансовые.
Следующий шаг - вертикальная интеграция. Китайские компании начинают предлагать не просто модели, а готовые решения: модель + инфраструктура + инструменты для дообучения. Как в статье про AI Router для мобильных приложений, только на стероидах.
Западным компаниям придется либо снижать цены (маловероятно), либо открывать свои модели (более вероятно). Уже ходят слухи, что OpenAI готовит open-weight версию GPT-4.5. С опозданием на два года, но лучше поздно.
Мой совет? Если вы разрабатываете AI-продукт в 2026 году, посмотрите на китайские модели. Не как на экзотику, а как на основной стек. Начните с DeepSeek-R1 или Qwen 2.5 MoE 32B. Протестируйте на своих данных. Сравните стоимость и качество.
Скорее всего, вы удивитесь. И сэкономите кучу денег. А через полгода будете смеяться над теми, кто все еще платит $0.60 за выходные токены у GPT-5.
P.S. И да, следите за Yi-34B-Chat. Эта темная лошадка может всех удивить.