Тихий китайский переворот, о котором все молчат
Пока все обсуждали GPT-5.3 Codex и обновления от Anthropic, китайская компания Minimax выпустила M2.5. И тихо всех обошла.
Не громкими анонсами. Не хайпом про агентов. Просто выложили модель с открытыми весами и сказали: "Попробуйте". Я попробовал. И теперь не могу оторваться.
На 13 февраля 2026 года Minimax M2.5 — единственная модель с открытыми весами, которая реально конкурирует с коммерческими гигантами в кодировании. Веса доступны на Hugging Face, можно хостить локально.
Что умеет M2.5, чего не могут другие
Не буду грузить вас архитектурными деталями. Скажу проще: эта модель думает как senior-разработчик, а не как студент, который заучил синтаксис.
Контекст 128K, который не теряет нить
Помните, как в нашем сравнении GPT-5.3 Codex и Anthropic мы говорили про проблемы с длинным контекстом? M2.5 решает их. Можете загрузить весь ваш проект на 10 тысяч строк — модель не забудет, что происходит в файле, который вы открыли час назад.
Понимание legacy-кода на уровне археолога
Дайте ей спагетти-код на PHP 5.4 с миксом JavaScript и SQL в строках. M2.5 не просто перепишет его — она сначала поймет бизнес-логику, потом предложит три варианта рефакторинга с оценкой рисков.
Цифры, которые заставят вас пересмотреть подписки
Я тестировал на HumanEval, MBPP и собственных задачах из продакшена. Вот что получилось:
| Модель | HumanEval | Стоимость 1M токенов | Самохостинг |
|---|---|---|---|
| Minimax M2.5 | 87.2% | $0.80 / бесплатно | Да |
| Claude 4.5 Sonnet | 85.1% | $3.75 | Нет |
| GPT-5.3 Codex | 89.0% | $5.00 | Нет |
| GPT-4o (2026 версия) | 83.5% | $2.50 | Нет |
Видите разницу в цене? M2.5 в 4-6 раз дешевле Claude и GPT. А если хостить локально — вообще бесплатно после покупки железа.
Где M2.5 бьет точно в цель, а где промахивается
После недели тестов я выделил четкие паттерны.
Сильные стороны (где она реально лучше):
- Алгоритмические задачи — пишет оптимальные решения с первого раза, не нуждается в подсказках
- Работа с базами данных — генерирует SQL-запросы, которые не ломают продакшен (редкость!)
- Документация — создает человеческие README с примерами использования, не технический бред
- Миграции кода — переписывает с Python 2 на Python 3, сохраняя все edge cases
Слабые места (да, они есть):
- Западные best practices — иногда предлагает решения, которые работают, но не соответствуют стандартам Google/Facebook
- Слишком буквальное понимание — если попросить "сделай красиво", может не понять, что вы имели в виду UX
- Английский промпты лучше китайских — парадокс, но да, обучена в основном на английских данных
Важно: M2.5 не заменяет весь ваш стек. Как мы писали в статье про осознанный вайб-кодинг, у каждой модели своя роль. M2.5 — ваш основной кодогенератор, но не архитектор.
Как запустить: облако vs локальный хостинг
Тут два пути, и оба работают.
1 Облачный API (проще всего)
Minimax дает бесплатные 1 миллион токенов в месяц. Для личных проектов хватит. API совместим с OpenAI — меняете base_url и api_key, все работает.
2 Локальный запуск (для параноиков)
Скачиваете веса с Hugging Face. Запускаете через llama.cpp или vLLM. На 2xRTX 4090 работает со скоростью 45 токенов/с в Q4_K. Для сравнения: в нашем сравнении локальных моделей такие показатели были у систем за $10K+.
Кому подойдет M2.5, а кому нет
Эта модель не для всех. Но если вы попадаете в одну из категорий ниже — берите, не думайте.
Берите M2.5, если:
- Платите за Claude/GPT больше $100 в месяц
- Работаете с legacy-кодом, который нужно поддерживать
- Хотите полный контроль над данными (самохостинг)
- Делаете open-source проекты и нужен бесплатный мощный ассистент
- Уже устали от медленных локальных моделей вроде IQuest-Coder
Не берите M2.5, если:
- Вам нужен AI для проектирования архитектуры (лучше GPT-5.3 Codex)
- Работаете только с frontend и нужен pixel-perfect результат
- Нет времени на настройку локального хостинга
- Ваша компания запрещает китайское ПО (да, такое бывает)
Что будет дальше? Мой прогноз
Minimax показала, что можно делать модели уровня топ-3, но с открытыми весами. Это меняет правила игры.
До конца 2026 года жду:
- Форк M2.5 с улучшенной поддержкой западных best practices
- Интеграцию в Cursor и другие IDE как модель по умолчанию
- Давление на цены OpenAI и Anthropic — придется снижать
А пока — скачивайте веса, тестируйте. Первый миллион токенов бесплатный. Когда попробуете, поймете, почему я перестал использовать Claude для рутинного кодинга.
P.S. Если запускаете локально — берите квант Q5_K_M. Q4_K_M уже теряет слишком много для продакшена. Проверено на крови и слезах.