Blackwell: когда Хуанг решил, что Hopper - это вчерашний день
Еще не успели инженеры разгрузить первые партии H100, как Дженсен Хуанг вышел на сцену с новым словом в GPU-архитектуре: Blackwell. На момент 17 марта 2026 года, пыль после анонса уже улеглась, а на полках у интеграторов лежат три новых монстра: B100, B200 и B300. И если вы думали, что Hopper - это потолок, приготовьтесь к шоку от будущего. Цифры, которые мы увидим ниже, не оставляют сомнений: для сборки AI-сервера сегодня нужно смотреть только сюда. (Или все-таки нет? Об этом потом).
Архитектура Blackwell: не просто больше ядер
В основе Blackwell лежит не эволюция, а маленькая революция. Nvidia взяла все боли Hopper и выжгла их каленым железом. Новые тензорные ядра 5-го поколения заточены под низкоточные форматы. Поддержка FP4 (а не только INT4) - это главный козырь для ускорения LLM. Формат NVFP4 обещает прирост скорости до 2.3x для инференса, и это не маркетинг. Память HBM3e с пропускной способностью под 20 ТБ/с - это ответ на вечный вопрос 'как накормить эти ненасытные ядра'. И да, NVLink 5.0 позволяет склеивать до 576 GPU в один кластер. Звучит как научная фантастика, но это уже реальность 2026 года.
B100, B200, B300: кто есть кто в семье Blackwell
Nvidia традиционно запускает линейку из трех чипов. Но в случае с Blackwell разрыв между ними - это пропасть. B100 - это входной билет. B200 - рабочая лошадка для дата-центров. B300 - это вообще отдельная история, созданная, чтобы заткнуть за пояс все, что было до нее. Смотрим на цифры (актуальные на март 2026):
| Модель | Ядра (усл. ед.) | Память HBM3e | Пропускная способность | TFLOPS (FP16) | TDP |
|---|---|---|---|---|---|
| B100 | 10 240 | 192 ГБ | 10 ТБ/с | 102.4 | 750 Вт |
| B200 | 15 360 | 288 ГБ | 15 ТБ/с | 153.6 | 950 Вт |
| B300 | 20 480 | 384 ГБ | 20 ТБ/с | 204.8 | 1200 Вт |
B300 с его 384 ГБ памяти - это прямая угроза для всех, кто собирал кластеры из H100. Один такой чип может держать в памяти модель размером под 700B параметров в формате FP8. Это меняет всю экономику инференса. Но за все надо платить: система питания для стойки с B300 - это отдельный инженерный проект. И да, цена ушла в отрыв, как мы уже писали ранее.
Blackwell vs Hopper: цифры не врут, но контекст решает все
Сравнивать поколения всегда больно. Особенно когда твой недавно купленный H100 вдруг проседает в цене на вторичке. Вот сухие факты:
| Параметр | H100 (Hopper) | B100 (Blackwell) | Прирост |
|---|---|---|---|
| Пиковая производительность (FP16) | 67 TFLOPS | 102.4 TFLOPS | ~1.53x |
| Объем памяти | 80 ГБ HBM2e | 192 ГБ HBM3e | 2.4x |
| Пропускная способность памяти | 3.35 ТБ/с | 10 ТБ/с | ~3x |
| Поддержка FP4 (NVFP4) | Нет | Да | Бесконечность |
Прирост в 1.5 раза по TFLOPS - это хорошо, но не сенсационно. Настоящая магия начинается там, где Hopper просто не может работать: в низкоточных вычислениях. Поддержка FP4 в железе - это как дать гоночному болиду новое топливо. Для задач инференса LLM, где точность FP16 часто избыточна, Blackwell выигрывает в разы. Но есть нюанс: ваше ПО должно уметь использовать NVFP4. Библиотеки типа llama.cpp уже добавили поддержку, но фреймворки для обучения еще догоняют.
Не обольщайтесь TFLOPS. Реальная производительность в обучении моделей упирается не только в чип, но и в межчиповую связь (NVLink), охлаждение и, что самое важное, в оптимизацию кода под новую архитектуру. Купить B300 и получить прирост только 20% - это реальный сценарий, если ваша команда не готова переписывать пайплайны.
Собираем AI-сервер в 2026: Blackwell или все-таки Hopper?
Вот простой алгоритм. Если вы запускаете продакшен-инференс для LLM с моделями от 70B параметров и выше - только Blackwell. Память HBM3e и FP4 окупятся в первый же месяц. Если вы исследовательская лаборатория, которая гоняет эксперименты на разных архитектурах, и кодовая база заточена под CUDA 11-12 - стоит подумать о Hopper. Цены на H100 упали, а стабильность драйверов проверена. Для обучения моделей с нуля ответ неоднозначен. B200 выглядит идеальным балансом, но нужно считать стоимость владения (электричество, охлаждение) и доступность. История с тем, что RTX 6000 Blackwell не POSTится, напоминает: ранние партии нового железа всегда имеют детские болезни.
- Выбирайте B100, если бюджет ограничен, но хочется будущего. Это точка входа.
- Берите B200 для большинства задач обучения и инференса. Золотая середина 2026 года.
- Заказывайте B300 только если вы точно знаете, зачем он вам. И если у вас есть подрядчик, который спроектирует систему охлаждения.
- Рассмотрите Hopper (H100/H200), если ваши workloads не чувствительны к объему памяти, а сроки и стабильность критичны. Или если вы хотите собрать бюджетный кластер из списанных карт.
Кому подойдет Blackwell, а кому лучше остаться на Hopper
Blackwell - это выбор тех, кто работает на острие. Компании, которые зарабатывают на инференсе LLM (агрегаторы, чат-боты, код-генераторы). Крупные исследовательские центры, тренирующие модели следующего поколения. Те, кому нужно запускать огромные модели в режиме реального времени. Hopper еще не умер. Он отлично подойдет для финтеха (HPC), классического компьютерного зрения, и для всех, у кого уже есть работающие пайплайны под эту архитектуру. Переписывать их под Blackwell - это месяцы работы.
И последнее: не забывайте, что Vera Rubin от Nvidia уже на горизонте. Архитектура Rubin, по слухам, будет представлена в конце 2026 или в 2027. Она обещает еще больший скачок в энергоэффективности. Покупая Blackwell сегодня, вы инвестируете в производительность завтрашнего дня. Но если ваши задачи решаются Hopper'ом, может, стоит подождать еще один цикл? В мире AI железо устаревает быстрее, чем вы успеваете его распаковать.