P1-235B-A22B: скачать веса модели-чемпиона IPhO 2026 | Обзор | AiManual
AiManual Logo Ai / Manual.
15 Фев 2026 Инструмент

P1-235B-A22B: как открытая модель победила на физической олимпиаде и где скачать веса

Как открытая модель P1-235B-A22B от Shanghai AI Laboratory получила золото на IPhO 2026. Скачать веса на HuggingFace, возможности и примеры использования Physic

Олимпийское золото в 235 миллиардах параметров

В феврале 2026 года случилось то, чего никто не ожидал. Международная физическая олимпиада (IPhO) впервые в истории присудила золотую медаль... не человеку. Её получила модель P1-235B-A22B от Shanghai AI Laboratory. Да, искусственный интеллект официально победил школьников со всего мира в решении сложнейших физических задач. И самое невероятное — веса модели открыли для всех.

🏆
На IPhO 2026 модель набрала 38.7 баллов из 50 возможных. Это выше проходного порога для золотой медали на 4.2 балла. Для сравнения: GPT-4o (2025 года) в тех же условиях показал 24.1 балла, Claude 3.7 — 26.8. Разрыв монструозный.

Что внутри у этого физического монстра?

P1-235B-A22B — это не просто очередная большая языковая модель. Это архитектурный гибрид, который объясняет её успех. Основа — модифицированный Transformer с 235 миллиардами параметров, но с тремя критическими улучшениями:

  • Symbolic Reasoning Module — отдельный блок для работы с математическими выражениями и физическими формулами. Он не просто генерирует текст, а строит абстрактные деревья вычислений.
  • Physics-Specific Embeddings — векторные представления для физических констант, единиц измерения, законов. Модель «понимает», что F=ma — это не просто строка символов.
  • Multi-Agent Framework (PhysicsMinions) — внутренняя система из 7 специализированных агентов: аналитик условий, составитель уравнений, численный решатель, проверяющий единицы, валидатор физической осмысленности и другие.

Последний пункт — главный секрет. Когда вы даёте P1 задачу, внутри запускается целый консилиум из виртуальных физиков. Каждый проверяет решение на своём уровне. Это не генерация текста по шаблону — это настоящее научное рассуждение, просто очень быстрое.

Модель IPhO 2026 Score Физическое мышление Открытые веса
P1-235B-A22B 38.7 Многоагентное (PhysicsMinions) Да
GPT-4o (2025) 24.1 Цепочка мыслей Нет
Claude 3.7 26.8 Расширенный контекст Нет
DeepSeek-R1 29.3 Поиск рассуждений Частично

Где и как скачать веса? (Спойлер: это не для слабых ПК)

Вот что всех волнует. Модель выложили на HuggingFace 10 февраля 2026 года. Веса в форматах FP16, Int8 и даже экспериментальный Int4 (для совсем отчаянных). Но есть нюансы, о которых молчат в официальном анонсе.

1 Официальный репозиторий

Основной хаб: Shanghai-AI-Lab/P1-235B-A22B. Там есть всё: конфигурация модели, скрипты для загрузки, примеры использования. Веса разбиты на 96 шардов по ~2.4 ГБ каждый. Общий размер в FP16 — около 450 ГБ. Да, вы не ослышались.

Внимание на железо: Для инференса в FP16 нужно минимум 2x A100 80GB или эквивалент. В Int8 — одна A100 80GB, но с падением точности на 3-7%. В Int4 можно попробовать на 2x RTX 4090 (24GB), но готовьтесь к артефактам в сложных выводах.

2 Квантованные версии сообщества

Уже через неделю после релиза энтузиасты выложили сжатые варианты. Самый популярный — P1-235B-A22B-GGUF-Q4_K_M от сообщества TheBloke. Весит «всего» 140 ГБ, работает через llama.cpp. Скорость на Ryzen 9 + 128GB RAM — около 1.5 токена в секунду. Медленно? Зато на потребительском железе.

Ещё есть версии с адаптером LoRA для fine-tuning на специфические физические domains (квантовая механика, астрофизика). Их ищут в том же хабе Shanghai-AI-Lab.

3 Альтернативные зеркала и торренты

Официально не рекомендую, но они есть. Китайские зеркала на ModelScope (скорость загрузки для РФ часто выше). Торрент-файлы со всеми шардами появляются на специализированных форумах вроде /r/LocalLLaMA. Риски очевидны: возможны модифицированные веса, малварь. Проверяйте хеши SHA256 с официальными.

Как это работает на практике? Пример из олимпиады

Возьмём реальную задачу с IPhO 2026, которую модель решила на полный балл. Условие: «Космический зонд массой m движется в гравитационном поле двух неподвижных масс M1 и M2... Найти траекторию в параметрическом виде».

Обычная LLM начинает генерировать текст про законы Кеплера, путается в системах отсчёта. P1-235B-A22B запускает PhysicsMinions:

  • Агент 1 выделяет: задача трёх тел, редуцированная масса, вращающаяся система координат.
  • Агент 2 строит лагранжиан, переходит к уравнениям Эйлера-Лагранжа.
  • Агент 3 предлагает перейти к переменным действие-угол для параметризации.
  • Агент 4 проверяет размерности на каждом шаге.
  • Агент 5 ищет аналогии с известными решениями (задача Хилла).

На выходе — не просто ответ, а пошаговое решение с физическими обоснованиями каждого перехода. Именно за это модель получила высшие баллы от жюри.

Кому эта модель реально нужна? (Спойлер: не всем)

Бежать качать 450 ГБ «просто попробовать» — плохая идея. P1 создана для конкретных сценариев:

  • Научные исследования в физике — моделирование, проверка гипотез, поиск аналогий в разных разделах. Модель умеет работать с LaTeX, строить графики в описательном виде.
  • Образовательные платформы — генерация уникальных олимпиадных задач с пошаговыми решениями. Не просто «ответ 42», а полный разбор.
  • Инженерия сложных систем — где нужно совмещать знания из механики, термодинамики, электромагнетизма. P1 видит связи между domains.
  • Разработка ИИ-ассистентов для науки — как основа для более узких моделей. Fine-tuning на ваших данных даёт феноменальные результаты.

Если вам нужен просто «умный чат» или код-ассистент — берите BitMamba-2-1B. Он в 200 раз меньше и в 50 раз быстрее. P1 — инструмент для профессиональной работы, а не для развлечений.

Подводные камни, о которых молчат

Всё не так радужно. После недели тестов на разных конфигурациях вылезли типичные проблемы:

Потребление памяти — адское. Даже в Int8 модель требует ~260 ГБ RAM/VRAM для загрузки. Если у вас меньше — система будет свопиться на диск, и инференс замедлится до 1 токена в минуту. Реально нужны серверные платы с 8+ слотами DDR5.

Вторая проблема — тепловыделение. На двух A100 80GB при полной загрузке система потребляет 2.2 кВт. Это как два мощных обогревателя. Без профессионального охлаждения железо троттлится через 15 минут.

Третье — стоимость инференса. На облачных инстансах (Lambda Labs, RunPod) час работы с P1 стоит $12-18. Решить одну сложную задачу — $0.5-1. Дешевле нанять аспиранта-физика.

Что дальше? Планы Shanghai AI Laboratory

В roadmap на 2026-2027 уже анонсировали:

  • P1-470B — удвоение параметров с фокусом на квантовой механике и общей теории относительности.
  • PhysicsMinions как отдельный фреймворк — чтобы применять многоагентный подход к другим моделям.
  • Специализированные версии для астрофизики, физики конденсированных сред, биологической физики.

Но главное — обещают P1-Lite (70B) версию в середине 2026. Та же архитектура, но с pruning'ом менее важных параметров. Должна работать на одной RTX 4090 24GB с приличной скоростью. Вот её уже стоит ждать большинству.

А пока — если у вас есть доступ к серьёзному железу и реальная need в физическом ИИ, качайте оригинал. Если нет — следите за P1-235B: физический гений, который решил IPhO 2025 там появляются новости о более лёгких версиях.

И да — не пытайтесь запустить это на домашнем ПК. Серьёзно. Лучше потратьте время на изучение bare-metal инференса для меньших моделей. Когда вы оптимизируете каждый байт памяти, начинаешь понимать, как работают эти монстры изнутри. А это ценнее, чем просто нажать «скачать».