Обзор Nvidia Blackwell B100, B200, B300: сравнение с Hopper для AI-серверов | AiManual
AiManual Logo Ai / Manual.
17 Мар 2026 Инструмент

Blackwell против Hopper: как новые GPU Nvidia переписывают правила игры в AI

Полный разбор архитектуры Nvidia Blackwell: характеристики B100, B200, B300, поддержка FP4, HBM3e память. Сравнение с H100 для сборки AI-серверов в 2026.

Blackwell: когда Хуанг решил, что Hopper - это вчерашний день

Еще не успели инженеры разгрузить первые партии H100, как Дженсен Хуанг вышел на сцену с новым словом в GPU-архитектуре: Blackwell. На момент 17 марта 2026 года, пыль после анонса уже улеглась, а на полках у интеграторов лежат три новых монстра: B100, B200 и B300. И если вы думали, что Hopper - это потолок, приготовьтесь к шоку от будущего. Цифры, которые мы увидим ниже, не оставляют сомнений: для сборки AI-сервера сегодня нужно смотреть только сюда. (Или все-таки нет? Об этом потом).

Архитектура Blackwell: не просто больше ядер

В основе Blackwell лежит не эволюция, а маленькая революция. Nvidia взяла все боли Hopper и выжгла их каленым железом. Новые тензорные ядра 5-го поколения заточены под низкоточные форматы. Поддержка FP4 (а не только INT4) - это главный козырь для ускорения LLM. Формат NVFP4 обещает прирост скорости до 2.3x для инференса, и это не маркетинг. Память HBM3e с пропускной способностью под 20 ТБ/с - это ответ на вечный вопрос 'как накормить эти ненасытные ядра'. И да, NVLink 5.0 позволяет склеивать до 576 GPU в один кластер. Звучит как научная фантастика, но это уже реальность 2026 года.

💡
Ключевое отличие Blackwell от Hopper - нативную поддержку формата FP4 для квантования. Это не просто флаг в компиляторе, а отдельные логические блоки в чипе, которые решают проблему деградации качества моделей при 4-битном квантовании. По сути, Nvidia продает вам уже готовое решение для сверхбыстрого инференса.

B100, B200, B300: кто есть кто в семье Blackwell

Nvidia традиционно запускает линейку из трех чипов. Но в случае с Blackwell разрыв между ними - это пропасть. B100 - это входной билет. B200 - рабочая лошадка для дата-центров. B300 - это вообще отдельная история, созданная, чтобы заткнуть за пояс все, что было до нее. Смотрим на цифры (актуальные на март 2026):

МодельЯдра (усл. ед.)Память HBM3eПропускная способностьTFLOPS (FP16)TDP
B10010 240192 ГБ10 ТБ/с102.4750 Вт
B20015 360288 ГБ15 ТБ/с153.6950 Вт
B30020 480384 ГБ20 ТБ/с204.81200 Вт

B300 с его 384 ГБ памяти - это прямая угроза для всех, кто собирал кластеры из H100. Один такой чип может держать в памяти модель размером под 700B параметров в формате FP8. Это меняет всю экономику инференса. Но за все надо платить: система питания для стойки с B300 - это отдельный инженерный проект. И да, цена ушла в отрыв, как мы уже писали ранее.

Blackwell vs Hopper: цифры не врут, но контекст решает все

Сравнивать поколения всегда больно. Особенно когда твой недавно купленный H100 вдруг проседает в цене на вторичке. Вот сухие факты:

ПараметрH100 (Hopper)B100 (Blackwell)Прирост
Пиковая производительность (FP16)67 TFLOPS102.4 TFLOPS~1.53x
Объем памяти80 ГБ HBM2e192 ГБ HBM3e2.4x
Пропускная способность памяти3.35 ТБ/с10 ТБ/с~3x
Поддержка FP4 (NVFP4)НетДаБесконечность

Прирост в 1.5 раза по TFLOPS - это хорошо, но не сенсационно. Настоящая магия начинается там, где Hopper просто не может работать: в низкоточных вычислениях. Поддержка FP4 в железе - это как дать гоночному болиду новое топливо. Для задач инференса LLM, где точность FP16 часто избыточна, Blackwell выигрывает в разы. Но есть нюанс: ваше ПО должно уметь использовать NVFP4. Библиотеки типа llama.cpp уже добавили поддержку, но фреймворки для обучения еще догоняют.

Не обольщайтесь TFLOPS. Реальная производительность в обучении моделей упирается не только в чип, но и в межчиповую связь (NVLink), охлаждение и, что самое важное, в оптимизацию кода под новую архитектуру. Купить B300 и получить прирост только 20% - это реальный сценарий, если ваша команда не готова переписывать пайплайны.

Собираем AI-сервер в 2026: Blackwell или все-таки Hopper?

Вот простой алгоритм. Если вы запускаете продакшен-инференс для LLM с моделями от 70B параметров и выше - только Blackwell. Память HBM3e и FP4 окупятся в первый же месяц. Если вы исследовательская лаборатория, которая гоняет эксперименты на разных архитектурах, и кодовая база заточена под CUDA 11-12 - стоит подумать о Hopper. Цены на H100 упали, а стабильность драйверов проверена. Для обучения моделей с нуля ответ неоднозначен. B200 выглядит идеальным балансом, но нужно считать стоимость владения (электричество, охлаждение) и доступность. История с тем, что RTX 6000 Blackwell не POSTится, напоминает: ранние партии нового железа всегда имеют детские болезни.

  • Выбирайте B100, если бюджет ограничен, но хочется будущего. Это точка входа.
  • Берите B200 для большинства задач обучения и инференса. Золотая середина 2026 года.
  • Заказывайте B300 только если вы точно знаете, зачем он вам. И если у вас есть подрядчик, который спроектирует систему охлаждения.
  • Рассмотрите Hopper (H100/H200), если ваши workloads не чувствительны к объему памяти, а сроки и стабильность критичны. Или если вы хотите собрать бюджетный кластер из списанных карт.

Кому подойдет Blackwell, а кому лучше остаться на Hopper

Blackwell - это выбор тех, кто работает на острие. Компании, которые зарабатывают на инференсе LLM (агрегаторы, чат-боты, код-генераторы). Крупные исследовательские центры, тренирующие модели следующего поколения. Те, кому нужно запускать огромные модели в режиме реального времени. Hopper еще не умер. Он отлично подойдет для финтеха (HPC), классического компьютерного зрения, и для всех, у кого уже есть работающие пайплайны под эту архитектуру. Переписывать их под Blackwell - это месяцы работы.

И последнее: не забывайте, что Vera Rubin от Nvidia уже на горизонте. Архитектура Rubin, по слухам, будет представлена в конце 2026 или в 2027. Она обещает еще больший скачок в энергоэффективности. Покупая Blackwell сегодня, вы инвестируете в производительность завтрашнего дня. Но если ваши задачи решаются Hopper'ом, может, стоит подождать еще один цикл? В мире AI железо устаревает быстрее, чем вы успеваете его распаковать.

Подписаться на канал