Intern-S1-Pro: тестирование 1T MoE-модели для науки на vLLM и SGLang | AiManual
AiManual Logo Ai / Manual.
04 Фев 2026 Инструмент

Intern-S1-Pro: Модель на триллионе параметров, которая заставит вас забыть про ChatGPT для науки

Обзор гигантской open-source модели Intern-S1-Pro на 1 триллион параметров для научного мышления. Тесты на vLLM и SGLang, сравнение с альтернативами.

Когда 1 триллион параметров - это не маркетинг, а необходимость

Представьте модель, которая не просто генерирует текст, а разбирается в квантовой механике, биологии клетки и дифференциальных уравнениях одновременно. Это Intern-S1-Pro - монстр с 1.008 триллионами параметров, который вышел в открытый доступ в начале 2026 года. И да, это не опечатка. Триллион.

Модель доступна на HuggingFace под названием internlm/intern-s1-pro и весит примерно 1.8 ТБ в формате BF16. Для сравнения: GPT-4 имела около 1.7 триллионов параметров, но была закрытой.

Что внутри этого научного Левиафана

Архитектура - чистое безумие. 16 экспертов MoE (Mixture of Experts), каждый по 67 миллиардов параметров. Но активируется только 2 эксперта за токен - классический подход MoE, который экономит вычислительные ресурсы.

КомпонентЧто это дает
Fourier Position Encoding (FoPE)Лучше работает с длинными контекстами научных статей
STE RoutingБолее точное распределение запросов между экспертами
16 экспертов MoEСпециализация на разных научных областях

FoPE - это новая фишка. Вместо стандартных позиционных эмбиддингов используются преобразования Фурье. Звучит сложно? На практике это значит, что модель лучше понимает длинные последовательности - именно то, что нужно для научных статей.

Запуск на vLLM: когда скорость важнее всего

vLLM с версии 0.4.5 (актуальной на февраль 2026) научился работать с MoE-моделями почти без потерь. Ключевое слово - "почти".

💡
Для запуска Intern-S1-Pro на vLLM нужны минимум 4x A100 80GB или эквивалент. На потребительском железе даже не пытайтесь - это не GLM-4.7 REAP 218B, который хоть как-то квантуется.

Что получаем на vLLM? Скорость. Около 45 токенов в секунду на научных текстах. Это быстрее, чем многие модели в 10 раз меньшего размера. Секрет в эффективной реализации PagedAttention и оптимизированной загрузке экспертов.

SGLang: для тех, кто любит сложные промпты

Если ваш научный workflow включает сложные цепочки промптов с ветвлениями - SGLang ваш выбор. Особенно после их последнего обновления в январе 2026, где добавили нативную поддержку MoE.

Вот где SGLang выигрывает у vLLM: работа с сложными промптами для научного анализа. Представьте цепочку: "проанализируй статью → выдели гипотезы → проверь статистику → предложи эксперименты". SGLang делает это за один проход.

Но есть нюанс: SGLang пока менее стабилен с такими большими моделями. Иногда эксперты загружаются с задержкой, особенно при переключении между разными научными областями.

Научное мышление или просто хорошая память?

Тестировал на задачах из (c/t)^n теста - модель справляется лучше, чем большинство коммерческих аналогов. Но не идеально.

Где Intern-S1-Pro реально сияет? В анализе научных статей. Даете PDF с исследованием по биоинформатике - получаете не просто summary, а критический разбор методологии, предположения о возможных ошибках и предложения для дальнейших исследований.

Сравнивал с подходом из статьи про геометрию внутренних представлений - у Intern-S1-Pro действительно более структурированные эмбиддинги для научных концептов.

Кому эта модель вообще нужна?

  • Исследовательские лаборатории с доступом к суперкомпьютерам. Для них это замена штату младших научных сотрудников.
  • Фармацевтические компании, анализирующие тысячи исследований одновременно.
  • Академические институты, которые хотят автоматизировать рецензирование статей.
  • Никому другому. Серьезно, если у вас нет как минимум 4 топовых GPU - даже не смотрите в эту сторону.

Альтернативы, которые не требуют продажи почки

Давайте реалистично: 99.9% людей не запустят эту модель. Что тогда?

МодельПараметрыДля наукиЗапуск на
Qwen 2.5 72B72 млрдХорошо2x 4090
Llama 3.1 405B405 млрдУдовлетворительно8x A100
Intern-S1-Pro1.008 трлнОтлично4-8x H100

Для большинства задач хватит Qwen 2.5 с 72 миллиардами параметров. Особенно если использовать техники из KEF vs OpenAI o3 для улучшения reasoning.

Главный вопрос: а оно того стоит?

Если вы - университет с доступом к кластеру из 64 H100, то да. Для всех остальных - нет.

Но вот что интересно: сам факт существования такой модели меняет правила игры. Через год появятся квантованные версии, которые можно будет запускать на меньшем железе. Через два - аналогичные модели с лучшей архитектурой.

Intern-S1-Pro - это proof of concept. Доказательство, что open-source сообщество может создавать модели, конкурирующие с продуктами гигантов вроде OpenAI. Да, для запуска нужны серьезные ресурсы. Но модель существует и доступна всем.

Что дальше? Следите за развитием инструментов вроде SGLang и vLLM - именно они определят, насколько доступными станут такие гиганты. И проверяйте AI-SETT с 600 критериями - там уже есть тесты для научных моделей.

А пока - скачайте веса на HuggingFace, поставьте на полку и ждите, когда железо подешевеет. Или когда появится квантование до разумных размеров. Будущее уже здесь, просто оно пока не помещается в ваш серверный шкаф.