Xiaomi выкатила заявку на трон. Никаких полутонов: MiMo-V2.5-Pro с открытыми весами позиционируется как новая лучшая open-weights модель. Но вот загвоздка — конкретных цифр с бенчмарков нет. Есть громкий пресс-релиз, пара слайдов с «внутренними тестами» и куча вопросов. А на другом конце ринга — Kimi K2.6 от Moonshot AI, модель, которая уже несколько месяцев держит планку в сообществе энтузиастов. Кто кого? И стоит ли верить китайской гонке на этот раз?
«Мы достигли превосходства в рассуждениях, коде и математике — и делимся этим с сообществом», — заявили в Xiaomi. Хорошо, покажите.
Что известно о MiMo-V2.5-Pro? Почти ничего
Архитектура — sparse MoE с 310B параметров (35B активных). Прямой наследник MiMo-V2.5, но с «Pro» в названии и обещанием на 15-20% лучшего перплекса на длинных контекстах. Обучение — на 8 трлн токенов, включая свежие синтетические данные до марта 2026. Веса открыты под лицензией Apache 2.0, загрузить можно с Hugging Face от Xiaomi Research.
Единственный публичный результат — скриншот «Proof-of-Intelligence»: модель якобы решает сложную задачу из NYT Connections Extended (той самой, где Kimi K2.5 Thinking недавно всех обогнал). Но скриншот — не бенчмарк.
Kimi K2.6 — чем ответит Moonshot?
Moonshot AI не сидит сложа руки. Kimi K2.6 — итеративное обновление, которое вышло в апреле 2026. Ключевые улучшения: новый механизм смешивания экспертов (Dynamic Expert Routing) и существенное ускорение инференса через Kimi Linear в llama.cpp. Контекст — до 1 млн токенов (против 256K у MiMo). По бенчмаркам: MMLU-Pro — 92.1%, HumanEval — 88.7%, MATH-500 — 96.2%. Данные актуальны на 25 апреля 2026.
Но главное — у Kimi K2.6 есть Verified Open Benchmark — независимая панель от MLCommons, где модель показала результаты, близкие к Claude Opus 4.5. Для open-weights это уровень «почти топ». Восьмикратная экономия железа? Да, и это не выглядит подвохом.
| Параметр | MiMo-V2.5-Pro | Kimi K2.6 |
|---|---|---|
| Архитектура | Sparse MoE (310B, 35B active) | MoE (1 Trillion, ~128B active) |
| Контекст | 256K | 1M (с Kimi Linear) |
| Публичные бенчмарки | Нет (только внутренние) | MMLU-Pro 92.1%, HumanEval 88.7% |
| Открытые веса | Apache 2.0 | Apache 2.0 |
Хайп vs реальность: как отличить
Здесь пахнет знакомым сценарием. Вспомните MiMo-V2-Flash — «темная лошадка, бьющая гигантов». Она действительно неплоха в математике и коде, но лидером так и не стала. Сейчас Xiaomi повторяет тот же трюк: громкий анонс, упор на «Pro» в названии, минимум конкретики.
Почему? Варианта два. Первый — модель действительно выдающаяся, но внутренние метрики неконсистентны, нужна «полировка» перед публикацией полных тестов. Второй (циничный) — это PR-шум, чтобы оттянуть внимание от Kimi K2.6 и других моделей, пока дообучают следующий чекпойнт. Гонка китайских LLM превратилась в информационную войну, где первый кто выложил слайд — вроде как и победил.
Совет: не обновляйте свой Infra под MiMo, пока не увидите хотя бы бенчмарк на Aider или LiveCodeBench. Слова — дешевы, вес моделей — тяжел.
Что нас ждет дальше?
Я ставлю на то, что в ближайшие две недели появится независимый тест от сообщества — например, на железе энтузиастов или в разборе под капотом. Тогда станет ясно, действительно ли MiMo-V2.5-Pro догоняет Kimi K2.6 или это очередной фейерверк.
Пока же лидерство Kimi K2.6 нешатко — она проверена и в бенчмарках, и в полевых условиях (SGLang, llama.cpp, vLLM). MiMo-V2.5-Pro — темная лошадка с большим потенциалом, но без доказательств. История open-weights помнит модели, которые взлетали на неделю и исчезали. И помнит тех, кто остался — как DeepSeek V4 или Qwen 3.5.
Подождем неделю. Если Xiaomi не покажет цифры — разговор короткий. Если покажет — у нас появится новый фаворит. А пока болеем за открытые веса и здравый смысл.