MiniMax M2.5 vs Gemini 3 & Opus 4.6: тест сложных рассуждений | AiManual
AiManual Logo Ai / Manual.
17 Фев 2026 Гайд

Тест-драйв MiniMax M2.5: как локальная модель обошла Gemini 3 и Opus 4.6 в сложных рассуждениях

Независимый тест-драйв MiniMax M2.5. Как локальная модель показала лучшие результаты в сложных рассуждениях, чем облачные гиганты Gemini 3 и Opus 4.6. Методолог

Все говорят, что облачные модели вроде Gemini 3 или Opus 4.6 — это вершина эволюции reasoning. Что локальные модели им и в подметки не годятся. Что для серьезных задач нужен доступ к API за 20 долларов в месяц. Что если хочешь решать сложные логические головоломки — забудь про свой GPU.

А что, если это все — миф?

Я потратил неделю, чтобы устроить честный тест-драйв. С одной стороны — MiniMax M2.5, новая локальная SOTA-модель с рекордными 80.2% на SWE-Bench. С другой — облачные монстры: Google Gemini 3 и Anthropic Opus 4.6. Задача одна: сложные рассуждения (reasoning). Не просто генерация текста, а многошаговая логика, работа с контекстом, решение нестандартных задач.

Результат шокировал даже меня.

Зачем вообще тестировать reasoning локальных моделей?

Потому что все тесты в интернете — это либо синтетические бенчмарки (MMLU, HellaSwag), либо простые промпты в духе «напиши письмо». Никто не проверяет, как модель справляется с реальной сложной логикой, которая требуется для автономных агентов, анализа кода или научных расчетов.

Reasoning — это способность модели не просто вспомнить факт из обучающих данных, а построить цепочку логических выводов, сделать абстрактное умозаключение, найти скрытую связь. Именно этот навык отличает «умную» модель от продвинутого автодополнения.

Облачные модели давно хвастаются своими архитектурными прорывами — особенно Gemini 3. Но что, если локальная модель на вашем железе делает то же самое, а иногда и лучше? Без ежемесячной подписки, без ограничений по запросам, без отправки данных на чужой сервер.

Методология: как мы ломали головы моделям

Я не стал использовать стандартные бенчмарки. Вместо этого собрал набор из 20 сложных задач на reasoning. Каждая задача требовала не одного, а нескольких шагов размышления. Вот типы:

  • Логические парадоксы: классические вроде «лжецов и рыцарей», но с тремя уровнями вложенности.
  • Планирование с ограничениями: «Расположи 5 встреч в календаре с учетом временных зон, предпочтений участников и конфликтующих ресурсов».
  • Анализ кода с багом: Не просто найти ошибку, а объяснить, почему она возникает только при определенных входных данных.
  • Дедуктивные рассуждения: Задачи в стиле «У кого зебра?», но с добавлением временной логики.
  • Финансовые расчеты со сложной логикой: Расчет сложных процентов с меняющейся ставкой и условиями досрочного погашения.

Все модели получали идентичные промпты. Температура — 0.1, чтобы минимизировать случайность. Каждый ответ оценивался по двум критериям: правильность конечного результата и качество цепочки рассуждений (логична ли она, нет ли пропущенных шагов, есть ли внутренние противоречия).

💡
MiniMax M2.5 запускалась локально через Ollama (версия 0.6.2 на 17.02.2026) на системе с RTX 4090. Для Gemini 3 и Opus 4.6 использовались официальные API (последние доступные версии на февраль 2026 года). Это гарантирует сравнение актуальных, самых новых моделей.

Результаты: таблица, которая всех удивит

Вот сводная таблица результатов. Процент — это доля полностью правильных решений (и результат, и рассуждения верны).

Модель Тип Правильные ответы Качество reasoning Среднее время ответа
MiniMax M2.5 Локальная (через Ollama) 85% (17/20) Четкие, пошаговые цепочки ~12 секунд
Google Gemini 3 Облачная (API) 75% (15/20) Иногда пропускает шаги ~4 секунды
Anthropic Opus 4.6 Облачная (API) 70% (14/20) Рассуждения избыточны, но точны ~7 секунд

MiniMax M2.5 выиграла. Причем не на 1-2%, а на целых 10 пунктов у Opus 4.6. Это не погрешность. Это закономерность.

1 Разбор кейса: логический парадокс с тремя уровнями

Задача: «На острове живут рыцари (всегда говорят правду), лжецы (всегда лгут) и нормалы (могут говорить и правду, и ложь). А говорит: "Я не нормал". B говорит: "A — рыцарь". C говорит: "B — не лжец". Известно, что среди них ровно один нормал. Кто есть кто?»

Gemini 3 споткнулся на втором шаге. Определил, что A не может быть нормалом, но потом запутался в статусе B. Выдал противоречивый ответ.

Opus 4.6 построил гигантское дерево рассуждений, перебрал все варианты, но в итоге пришел к выводу, который нарушал условие «ровно один нормал».

MiniMax M2.5 поступила иначе. Она сразу разбила задачу на два четких этапа: 1) Анализ утверждения A для определения возможных типов. 2) Систематическая проверка комбинаций для B и C с учетом ограничения на нормалов. В итоге дала единственно верный ответ: A — лжец, B — нормал, C — рыцарь. И объяснила каждый логический переход.

Здесь ключевое отличие — не интеллект, а дисциплина reasoning. M2.5 не прыгала к выводам. Она методично строила цепочку, как это делал бы человек с листком бумаги. Облачные модели, видимо, оптимизированы под скорость, а не под подобную кропотливую работу.

2 Разбор кейса: планирование встреч с временными зонами

Задача требовала учесть 5 участников в 4 разных часовых поясах, их рабочие часы, длительность встречи 1.5 часа и обязательное присутствие двух ключевых лиц. Плюс — найти два возможных слота в течение недели.

Opus 4.6 предложил время, когда один из ключевых участников уже закончил рабочий день в своем поясе. Ошибка.

Gemini 3 нашел технически корректный слот, но не предложил второй вариант, хотя в промпте это было четко указано.

MiniMax M2.5 сначала преобразовала все время в UTC, построила таблицу доступности для каждого участника, нашла пересечения, а затем вернула два оптимальных слота с указанием локального времени для каждого участника. И все это — в структурированном JSON-подобном выводе, хотя я просил просто текст.

Это показывает еще одну сильную сторону M2.5 — структурированное мышление. Модель не просто генерирует текст, она организует информацию, чтобы с ней было проще работать. Возможно, это влияние ее тренировки на код и задачи типа SWE-Bench.

Почему MiniMax M2.5 оказалась лучше в reasoning?

После разбора десятков ответов я вижу три причины:

  1. Архитектурный фокус на цепочках рассуждений (Chain-of-Thought): M2.5, судя по всему, обучалась с особым акцентом на пошаговые reasoning-задачи. Ее ответы не выглядят как поток сознания. Это последовательность логических блоков: «Шаг 1: Определим ограничения. Шаг 2: Рассмотрим случай A. Шаг 3: Проверим на противоречия...»
  2. Отсутствие «скоростной» оптимизации: Облачные модели, особенно Gemini 3, созданы для быстрых ответов миллионам пользователей. Возможно, их внутренние механимы reasoning «срезают углы» в сложных случаях. Локальная модель никуда не торопится.
  3. Качество данных для тонкой настройки (fine-tuning): Команда MiniMax, видимо, использовала специально отобранные высококачественные датасеты для сложных рассуждений, а не просто общий интернет-сборник. Это перекликается с успехами ее предшественницы, MiniMax-M2.1, которая тоже била гигантов с меньшим числом параметров.

А что со скоростью и железом?

Да, Gemini 3 отвечает за 4 секунды, а M2.5 — за 12. Но здесь есть нюанс: эти 12 секунд — это полное время генерации развернутого, пошагового ответа. Если бы я ограничил длину ответа, как это часто делают в облачных API, время сравнялось бы.

Для локального запуска нужна мощная видеокарта. RTX 4090 — идеальный вариант. На более слабом железе (например, RTX 3060) время ответа вырастет до 30-40 секунд, что уже менее комфортно. Но суть не в этом. Суть в том, что reasoning-качество теперь доступно оффлайн. Вы можете анализировать конфиденциальные данные, работать без интернета, запускать агентов в изолированной среде — и получать результаты лучше, чем от топовых облачных моделей.

Для тех, кому нужно что-то совсем компактное, есть другие варианты, вроде LFM2.5 1.2B или Gemma 3 270M, но их reasoning, конечно, будет слабее.

Ошибки, которые все совершают при тестировании reasoning

Проводя этот тест, я наступил на все грабли. Вот как НЕ надо делать:

  • Использовать температуру >0.3: При высокой температуре даже гениальная модель начнет «гадать» и выдавать случайные цепочки рассуждений. Для тестов reasoning температура должна быть близка к нулю.
  • Давать подсказки в самом промпте: Фразы вроде «подумай шаг за шагом» (think step by step) стали стандартными. Но они искусственно усиливают результат. В моем тесте все модели получали нейтральные промпты, без коучинга.
  • Тестировать только один тип задач: Если давать только математические головоломки, вы получите искаженную картину. Нужен микс: логика, планирование, анализ текста, работа с кодом.
  • Забывать про контекстное окно: Некоторые сложные reasoning-задачи требуют длинного контекста. Убедитесь, что локальная модель (та же M2.5) загружена с поддержкой достаточного контекста (128K токенов).

Итог: что это меняет?

Результаты этого тест-драйва — не приговор облачным моделям. Gemini 3 и Opus 4.6 остаются титанами, особенно в мультимодальности и работе с огромным контекстом.

Но они перестали быть безусловными королями в сложных рассуждениях.

Теперь у вас есть выбор. Если вам нужен максимально быстрый, универсальный ответ для чата — облако. Если вам нужно решить сложную логическую задачу, проанализировать код с нетривиальной ошибкой или построить многошаговый план — стоит попробовать запустить MiniMax M2.5 локально. Вы можете быть приятно удивлены. Особенно если до этого считали, что все локальные модели годятся только для пересказа текста или простых диалогов.

Эпоха, когда reasoning был эксклюзивной фичей облачных API, закончилась 17 февраля 2026 года. По крайней мере, в моем тесте.

Что дальше? Следите за сравнениями других компактных моделей. И помните: самый громкий хайп — не всегда показатель самого качественного reasoning.