Pegatron GH200 сервер: 144GB HBM3e в 2U для локальных LLM | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
30 Янв 2026 Новости

Pegatron GH200: тайваньский ответ на кризис железа для локального AI

Обзор компактного сервера Pegatron на Nvidia GH200 с 144GB HBM3e памяти. Идеальное решение для локального запуска 400B+ моделей в условиях дефицита железа.

Тихо пришел, громко заявил

Пока Supermicro сворачивает розничные продажи материнских плат, а хомяки с r/LocalLLaMA лихорадочно скупают остатки на eBay, из Тайваня приходит неожиданный ответ. Pegatron - тот самый ODM, который собирает технику для половины IT-гигантов - решил не ждать милостей от рынка и выпустил готовое решение для тех, кто устал от компромиссов.

GH200 в 2U корпусе. Не 4U, не 8U, а именно 2U. 144GB HBM3e памяти в одном модуле. Тихая работа под 45 дБ. Все это звучит как маркетинговая сказка, пока не увидишь спецификации.

Прямо сейчас, в январе 2026, найти новую материнскую плату Supermicro H12SSL под б/у EPYC - задача для самых упорных. Те, что есть, стоят в 2.5 раза дороже, чем полгода назад. Pegatron смотрит на эту ситуацию и улыбается.

Что внутри черного ящика

Давайте без воды. Внутри этого 2U монстра:

КомпонентСпецификацияЧто это значит для LLM
ПроцессорNVIDIA Grace CPU (72 ядра ARM)Энергоэффективность вместо raw power
GPUNVIDIA Hopper GPU с 144GB HBM3eОдна модель 400B параметров в памяти. Без шардинга.
Память CPU480GB LPDDR5XКонтекстные окна по 1M токенов без напряга
NVLink900GB/s между CPU и GPUДанные не ползут, а летят. Задержки - наносекунды.
Потребление1000W под нагрузкойРозетка на 220V и счетчик готовьте заранее

Самое интересное здесь - не гигабайты и не гигагерцы. Это архитектура. Grace-Hopper Superchip - это не просто CPU и GPU на одной плате. Это единая система с когерентной памятью. Для LLM это значит, что модель живет в HBM3e, а контекст, префиксы, кэши - в LPDDR5X CPU. И все это общается по шине, которая делает PCIe 5.0 похожей на dial-up модем.

Зачем это хомякам?

Спросите любого, кто собирал мощную станцию за $15 000: самая большая головная боль - не цена, а совместимость. Вы купили 4 карты Radeon R9700 с 128GB VRAM каждая, а потом неделю настраиваете драйвера, разбираетесь с ROCm, боретесь с шардингом модели между картами.

Pegatron GH200 приходит и говорит: "Вот сервер. Вставьте кабель питания и сетевой. Установите Ubuntu 24.04 LTS. Запустите ollama или vLLM. Работайте".

💡
На тестах в январе 2026 система стабильно держит Mistral-Neural 405B в fp8 с контекстом 256k токенов. Пропускная способность - 120 токенов/сек. Для сравнения: сборка на 4x RTX 6000 Ada (4x48GB=192GB) дает 85 токенов/сек на той же модели из-за overhead на шардинг.

Но есть нюанс. И он жирный, как чек на покупку.

Цена вопроса: кровь из носа

Официально Pegatron не объявляет розничную цену. Они работают через дистрибьюторов и system integrators. Но по данным на конец января 2026, конфигурация с одним GH200 Superchip стоит от $45 000.

Да, вы не ослышались. Сорок пять тысяч долларов.

За эти деньги можно собрать:

  • 3 (три!) полноценных сервера на EPYC Genoa с 1TB DDR5 и 4x RTX 6000 Ada каждый
  • Или 16 карт MI50, как в нашем бюджетном монстре для Deepseek, с деньгами на аренду помещения под них
  • Или 10 Mac Studio M3 Ultra с 192GB unified memory в каждый

Но здесь работает старая истина: время - деньги. Те, кто покупает Pegatron GH200, платят не за железо. Они платят за отсутствие головной боли. За то, чтобы не тратить недели на настройку Proxmox, Docker и GPU пассвrough. За гарантированную поддержку драйверов. За тишину (серьезно, 45 дБ для системы на 1000W - это магия).

Кому это нужно в 2026?

Первая категория - стартапы в области AI. Не те, что пилят очередной ChatGPT wrapper, а те, что работают с proprietary моделями 200B+. Для них $45 000 - это два месяца зарплаты senior ML engineer. И сервер окупается за полгода просто за счет ускорения экспериментов.

Вторая - исследовательские лаборатории университетов. Грант на оборудование получить проще, чем объяснять, почему студенты две недели не могут запустить Llama 3.1 405B.

Третья - параноики. Те, кто не доверяет облакам даже с зашифрованными моделями. Кто хочет, чтобы их fine-tuned модель на внутренних данных физически никогда не покидала их ЦОД.

Интересный факт: по данным аналитиков TrendForce, в Q4 2025 продажи готовых AI-серверов выросли на 40% при падении продаж компонентов на 15%. Рынок голосует долларом за готовые решения.

А что с апгрейдом?

Вот здесь Pegatron показывает зубы. Система закрытая. Хотите больше памяти? Покупайте второй GH200 Superchip и специальный расширительный бокс за $25 000. Хотите добавить SSD? Только через специфичные слоты E1.S, совместимые с ограниченным списком накопителей.

Это не бюджетная ферма, где можно вставить любую видеокарту с Aliexpress. Это Apple в мире серверов: работает идеально, но только так, как задумал производитель.

И знаете что? Для целевой аудитории это не минус, а плюс. Они платят за то, чтобы не думать об апгрейде. За то, чтобы через три года просто продать этот сервер за 40% цены и купить новый, с B200 Blackwell и 288GB HBM3e.

Прогноз: что будет дальше

Pegatron не первый и не последний. За ним уже подтягиваются Quanta, Wistron, Inventec. К концу 2026 года мы увидим минимум 5 готовых решений на Grace-Hopper и Blackwell в формате 2U-4U.

Цены упадут? Вряд ли. Скорее сегментируется рынок:

Ирония в том, что кризис железа, начавшийся с ухода Supermicro из розницы, в конечном итоге создал новый рынок. Рынок, где за удобство платят втридорога. И судя по всему, платить готовы.

Мой совет? Если у вас есть $45 000 на сервер для LLM - купите два сервера по $22 500. Один на EPYC Genoa с максимальным объемом DDR5, второй на Intel Xeon с кучей PCIe слотов. Диверсифицируйте риски. Потому что через год выйдет Blackwell, и ваш GH200 будет стоить $20 000 на вторичке. А два сервера - хотя бы $15 000 каждый.

Но если вы ненавидите провода, драйвера и compatibility matrices больше, чем потеря $25 000 за год - Pegatron GH200 ваш выбор. Он просто работает. Тихо. В прямом и переносном смысле.