Arm AGI CPU: новый чип для AI-инференса и партнерство с Meta | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
24 Мар 2026 Новости

Arm AGI CPU: первый собственный чип за 35 лет и смертный приговор Nvidia H200?

Arm выпустила свой первый процессор за 35 лет — AGI CPU. Разбираем, как он перевернет рынок AI-инференса и при чем тут масштабное партнерство с Meta. Все факты

35 лет молчания, один взрывной чип

Arm больше не довольствуется ролью скромного поставщика архитектур. Сегодня, 24 марта 2026 года, компания представила Arm AGI CPU — свой первый собственный процессор за 35 лет существования. Это не просто чип. Это заявление о намерениях, выстрел в сторону Nvidia, Broadcom и Qualcomm одновременно. И главный союзник в этой войне — Meta, которая уже заказала миллионы этих процессоров для своих дата-центров.

Контекст: Arm всегда лицензировала дизайн ядер, но никогда не делала готовые чипы под своим брендом. AGI CPU — это смена парадигмы, прямой вход в кровопролитную битву за AI-инференс в облаке.

Что внутри AGI CPU? Аргументы против графических монстров

Архитектура под кодовым названием "Neoverse AGX" — это гибрид, который всех раздражает. Он не GPU, не классический CPU, а что-то среднее, оптимизированное под одну задачу: эффективный инференс больших языковых моделей, таких как Llama 4 (да, та самая, которую Meta анонсировала в прошлом квартале).

  • Ядра AGI-Tensor: 128 специализированных блоков для операций INT4/INT8. Не нужен FP16? Идеально. Модели к 2026 году стали легче и точнее в низких битностях.
  • Память: 512 МБ кэша L3 на чип и поддержка до 1 ТБ DDR6 на сокет. Никакого дорогущего HBM, как в MTIA v4 от Meta или H200 от Nvidia. Экономика, детка.
  • TDP: 120 Вт. Смешно, если сравнивать с 700-ваттными печками от конкурентов. Охлаждение? Пассивный радиатор часто справится.
💡
Вот в чем фокус: Arm не пытается догнать Nvidia в пиковой производительности для обучения. Они бьют в самое больное место инференса — совокупную стоимость владения (TCO). Энергия, охлаждение, место в стойке. AGI CPU обещает в 3 раза более низкую стоимость за вывод токена для моделей типа Llama 4 70B по сравнению с GPU последнего поколения.

Причем тут Meta? Стратегия, от которой у Nvidia мороз по коже

Это не просто партнерство. Это симбиоз на уровне ДНК. Пока все обсуждали Maia 200 от Microsoft, Meta работала над чем-то более фундаментальным.

Meta спроектировала AGI CPU совместно с Arm с нуля. Цель — заменить львиную долю инференс-нагрузки в своих дата-центрах, которая сейчас висит на GPU. Зачем? Контроль. Независимость от капризов рынка чипов TSMC и ценовой политики Nvidia. Если у Meta свой оптимизированный стек железа и софта (PyTorch 3.1 + Llama 4 + Arm AGI CPU), они могут снижать стоимость своих AI-сервисов быстрее всех.

ПараметрArm AGI CPU (N1)Nvidia H200Meta MTIA v4
Целевая задачаМассовый инференс LLMОбучение и инференс HPCСпециализированный инференс для моделей Meta
Энергоэффективность (токен/ватт)Высшая (оценка)СредняяВысокая
Программная экосистемаPyTorch, TensorFlow Lite, ONNX RuntimeCUDA, весь стек NvidiaPyTorch, внутренние фреймворки Meta
Главный козырьЦена и доступностьУниверсальность и производительностьГлубокая вертикальная интеграция

Кому это выгодно, кроме Meta? Ответ — всем, кроме Nvidia

Arm AGI CPU будет продаваться любым производителям серверов. Dell, HPE, Supermicro — все смогут делать дешевые, энергоэффективные инференс-серверы. Это открывает двери для:

  1. Облачных провайдеров второго эшелона: Теперь они могут предлагать инференс Llama 4 или моделей OpenAI по цене, с которой AWS и Google не смогут конкурировать на своих GPU-инстансах.
  2. Корпоративных дата-центров: Развернуть свою приватную AI-инфраструктуру для внутренних агентов станет в разы дешевле. Больше не нужно покупать "избыточные" GPU.
  3. Саму Arm: Их бизнес-модель "архитектура + готовый чип" может стать новым стандартом. Партнеры вроде Apple или Samsung теперь думают: а зачем нам самим разрабатывать NPU, если можно взять AGI CPU?

Предупреждение: Не ждите, что этот чип будет универсальным. Он для инференса и только для него. Попытка дообучить на нем модель закончится слезами и воспоминаниями о добрых старых тензорных ядрах. Для обучения всё еще нужны монстры вроде тех, что представят на Nvidia GTC 2026.

Что дальше? Разлом в экосистеме

Рынок AI-железа раскалывается на два лагеря. С одной стороны — проприетарные, мощные, но дорогие и сложные системы Nvidia (и, с оговорками, AMD). С другой — открытые, специализированные, дешевые платформы от Arm и ее союзников.

Meta своей массовой закупкой дает сигнал всей индустрии. Инференс — это товарная услуга. И побеждает в ней тот, у кого ниже стоимость. Производительность важна, но лишь до определенного порога. Когда ваши AI-агенты отвечают за 200 мс или за 210 мс, пользователю всё равно. А вот разница в счете за электричество в конце года будет колоссальной.

Поэтому мой прогноз прост. К 2027 году каждый крупный облачный провайдер будет иметь стойки с Arm AGI CPU или их клонами. Nvidia останется королем обучения и высокопроизводительного инференса для нишевых задач. А Groq 3 и другие игроки, делающие ставку на экстремальную низкую задержку, найдут свою небольшую, но прибыльную нишу. Драма только начинается. И самое интересное, что главный бенефициар — не Arm и не Meta, а мы с вами. Потому что цена на AI-инференс вот-вот рухнет.

Подписаться на канал