GLM 5 Huawei Ascend MindSpore: правда о китайском технологическом суверенитете | AiManual
AiManual Logo Ai / Manual.
12 Фев 2026 Новости

GLM 5 и технологическая независимость Китая: правда ли модель обучали только на Huawei Ascend и MindSpore?

Разбираемся, обучали ли GLM 5 только на Huawei Ascend и MindSpore. Анализ заявлений о технологической независимости Китая в ИИ на 12.02.2026.

Шумиха вокруг GLM 5 достигла нового пика на прошлой неделе, когда в китайских технических чатах и на Weibo просочились слухи: Zhipu AI якобы обучила свою флагманскую модель исключительно на отечественном стеке Huawei. Никаких NVIDIA A100, никакого PyTorch. Только Ascend 910B и фреймворк MindSpore. Если это правда – перед нами исторический момент. Если нет – гениальный пиар-ход.

Откуда взялась эта история?

Все началось с полунамека в интервью одного из инженеров Zhipu AI для китайского издания. На прямой вопрос о железе для обучения GLM 5 он ответил уклончиво: «Мы активно сотрудничаем с отечественными производителями и стремимся к полной технологической независимости». Этого хватило, чтобы сообщество разнесло новость как факт.

На 12.02.2026 официальный технический отчет (paper) по GLM 5 все еще не опубликован. Все данные – из неофициальных источников, утечек и косвенных заявлений.

Контекст важен. Китай уже несколько лет пытается построить собственный технологический стек для ИИ, чтобы не зависеть от американских санкций. MoE-архитектуры и локальное железо – это не просто мода, а стратегическая необходимость. Вопрос в том, насколько этот стек уже готов к производственным нагрузкам уровня GLM 5.

Что мы знаем наверняка?

Zhipu AI не скрывает своего партнерства с Huawei. В пресс-релизах за последний год постоянно упоминаются совместные проекты по оптимизации моделей для Ascend. GLM-4.7 уже имел экспериментальные версии для MindSpore. Логично предположить, что для GLM 5 они пошли дальше.

Но «использовали» и «обучали исключительно на» – это разные вещи. Скорее всего, мы имеем дело с гибридным подходом:

  • Прототипирование и ранние эксперименты – на привычном железе (все-таки проще).
  • Финальное масштабирование и production-обучение – уже на кластерах Ascend с MindSpore.
  • Подготовка весов для разных платформ, включая OpenRouter.

Косвенное подтверждение этой теории – задержка с публикацией полного отчета. Если бы все было идеально чистым, Zhipu давно бы похвасталась этим как главным достижением. Молчание говорит о том, что картина сложнее.

💡
Сравнение производительности Ascend 910B и NVIDIA H100 в реальных задачах обучения больших моделей остается спорным. Независимые бенчмарки, доступные на 12.02.2026, показывают, что Huawei догнал конкурентов по raw FLOPS, но экосистема (библиотеки, драйверы, документация) все еще отстает.

А что с результатами?

Вот здесь интересно. Если GLM 5 действительно обучалась на менее отлаженном стеке, но показывает результаты на уровне GPT-5.2 в бытовых вопросах и держится в топе OpenRouter – это триумф инженеров Zhipu. Либо они обошли фундаментальные ограничения железа софтом, либо изначальные слухи преувеличены.

Сравним ключевые игроки на начало 2026 года:

Модель / Компания Заявленное железо для обучения Фреймворк Статус на 12.02.2026
GLM 5 (Zhipu AI) Huawei Ascend 910B (по слухам) MindSpore (по слухам) Paper не опубликован, модель доступна
GPT-5.2 (OpenAI) Собственные кластеры на NVIDIA PyTorch (предположительно) Закрытая, детали неизвестны
Qwen 2.5 Max (Alibaba) Гибрид (NVIDIA + Ascend) PyTorch + MindSpore Открыто заявлено о поддержке обоих стеков
Baichuan-M3-235B NVIDIA (детали в paper) PyTorch Paper опубликован

Обратите внимание на Alibaba. Они не скрывают гибридного подхода. Это разумно: пока собственный стек не идеален, дублируешь критически важные вычисления на проверенном железе. Если Zhipu пошла по пути «только своё», это либо огромный риск, либо признак того, что Ascend и MindSpore уже готовы.

Почему это важно для всех (даже для нас)?

Потому что монополия NVIDIA и CUDA тормозит индустрию. Цены заоблачные, доступ ограничен санкциями. Успех Китая в создании рабочей альтернативы – это не просто патриотическая история. Это потенциальный сдвиг для глобального рынка.

Если Huawei Ascend и Cambricon смогут эффективно обучать модели уровня GLM 5, у западных компаний появится реальный выбор. И давление на цены. И стимул для NVIDIA что-то менять.

Но есть и обратная сторона. Скандал с южнокорейской Solar-100B показал, как желание создать «суверенный ИИ» приводит к заимствованиям и скрытым зависимостям. Национальная гордость – плохой советчик в инженерии.

Технический суверенитет – это когда у тебя есть не только свое железо, но и свои компетенции, чтобы его эффективно использовать. Китай, судя по всему, инвестирует и в то, и в другое.

Что будет дальше?

Ждем paper. Без него все разговоры – спекуляции. Как только Zhipu опубликует детали обучения, мы узнаем:

  1. Сколько процентов обучения действительно прошло на Ascend.
  2. С какими проблемами столкнулись инженеры (обязательно будут, иначе это не реальный проект).
  3. Насколько эффективность (FLOPS/ватт, время обучения) отличается от аналогов на NVIDIA.

До тех пор история про «только Huawei» остается красивой легендой. Возможно, намеренно запущенной. В конце концов, китайские гиганты бросают вызов OpenAI и Google не только в качестве моделей, но и в нарративе. «Мы не просто скопировали – мы построили все с нуля на своем». Это мощный месседж для инвесторов и правительства.

Мой прогноз? Истина где-то посередине. GLM 5 – это первый крупный проект, где китайский стек использовался настолько масштабно. Но не единственный и не на 100%. А следующие версии, особенно GLM-5 Air и Flash, будут уже полностью родными. Потому что тренд на MoE-архитектуры идеально ложится на распределенные вычисления, а здесь у Ascend могут быть свои преимущества.

Следите за анонсами Zhipu. И читайте между строк. Потому что настоящая технологическая независимость начинается не с пресс-релизов, а с строчек кода в репозитории на GitHub.