Cerebras WSE-3 против Nvidia: революция в AI-чипах и инвестиции Benchmark | AiManual
AiManual Logo Ai / Manual.
08 Фев 2026 Новости

Cerebras выстреливает Wafer Scale Engine 3: монолитная плита против армии Nvidia

Wafer Scale Engine 3 от Cerebras с 4 триллионами транзисторов бросает вызов Nvidia. Инвестиции Benchmark и новая архитектура меняют правила игры в AI-железе.

Нет, это не опечатка. Четыре триллиона транзисторов в одном чипе

Представьте стандартный 300-мм кремниевый пластин. Теперь представьте, что на нём нет десятков отдельных чипов. Вместо этого - один гигантский монолит. 46 225 квадратных миллиметров кремния. 900 000 AI-ядер. И да, 4 000 000 000 000 транзисторов. Wafer Scale Engine 3 от Cerebras - это не просто ещё один AI-ускоритель. Это физический вызов всей логике полупроводниковой индустрии.

💡
Для сравнения: флагман Nvidia B200 содержит 208 миллиардов транзисторов. WSE-3 превосходит его почти в 20 раз по этому показателю. Но транзисторы - не главное. Главное - как они связаны.

Benchmark поставил $850 миллионов. Почему?

Peter Fenton из Benchmark Capital известен тем, что не бросает деньги на ветер. Его инвестиции в Uber, Twitter, Yelp стали легендарными. Теперь он ставит $850 миллионов на Cerebras. Причина проста: физика.

Традиционные GPU-кластеры - это тысячи отдельных чипов, связанных медленными межсоединениями. Данные путешествуют между ними как туристы в аэропорту с пересадками. Каждая пересадка - задержка. Каждая задержка - потеря производительности.

WSE-3 решает эту проблему кардинально. Все 900 000 ядер связаны единой сетью на кристалле с пропускной способностью 220 Петабит/с. Данные не путешествуют между чипами. Они перемещаются внутри одного гигантского чипа. Разница как между телефонным звонком через спутник и разговором в одной комнате.

Война архитектур: монолит против легиона

Пока Nvidia совершенствует свою архитектуру Vera Rubin с обещаниями революционной эффективности, Cerebras играет в другую игру. Они не пытаются сделать чип лучше. Они пытаются сделать его другим.

Параметр Cerebras WSE-3 Nvidia B200 Microsoft Maia 200
Транзисторы 4 трлн 208 млрд 105 млрд
AI-ядра 900 000 Не раскрывается Специализированные блоки
Пропускная способность памяти 20 ПБ/с 8 ТБ/с (HBM3e) 6.4 ТБ/с
Энергопотребление системы 23 кВт ~1 кВт на чип ~700 Вт

Цифры впечатляют. Но реальный вопрос: что они значат для разработчиков? В конце концов, китайские AI-чипы Huawei и Cambricon тоже показывали красивые цифры на бумаге.

Практика против теории: где WSE-3 действительно сияет

Здесь начинается самое интересное. Cerebras не продаёт отдельные чипы. Они продают системы CS-3 - готовые стойки с охлаждением, питанием и софтом. Цена? От $2.5 миллионов за систему. Дорого? Да. Но посчитайте дальше.

Для обучения модели размером с GPT-4o Turbo (примерно 1.8 триллиона параметров) потребуется:

  • Кластер из 8 000 GPU Nvidia H100: ~$250 миллионов за оборудование
  • Энергопотребление: ~2.5 МВт
  • Задержка обновления градиентов: 10-20 мс

Одна система CS-3 на WSE-3:

  • Стоимость: $2.5-3 миллиона
  • Энергопотребление: 23 кВт
  • Задержка обновления градиентов: микросекунды (всё внутри одного чипа)

Но есть нюанс: WSE-3 не универсален. Он создан для одной задачи - обучения гигантских моделей с нуля. Для инференса, мелких моделей или разнородных нагрузок он проигрывает специализированным чипам вроде Microsoft Maia 200.

Проблема, о которой никто не говорит: выход годных

Производство WSE-3 - это инженерный кошмар. Обычный чип размером 800 мм² имеет вероятность дефекта около 5%. При размере 46 225 мм² вероятность того, что на пластине не будет ни одного дефекта, стремится к нулю.

Cerebras решила это гениально просто: они не выбрасывают пластину с дефектами. Вместо этого их софт автоматически изолирует дефектные секции и перенаправляет вычисления на рабочие ядра. Это как иметь город с несколькими заблокированными улицами - вы просто едете по другим.

Но у этого подхода есть цена. Каждая система CS-3 уникальна. Её топология ядер зависит от конкретных дефектов на её пластине. Это означает, что софт должен адаптироваться под каждую конкретную систему. Для корпоративных клиентов, привыкших к идентичным серверам, это культурный шок.

Кто покупает эти монстры?

Ответ удивит. Не гиганты вроде Google или Meta. По крайней мере, не публично. Основные клиенты Cerebras - национальные лаборатории и исследовательские институты.

Argonne National Laboratory использует CS-2 (предыдущее поколение) для климатического моделирования. Они тренируют модели, которые предсказывают ураганы с точностью, недоступной традиционным суперкомпьютерам. Причина? Модель полностью помещается в память одного WSE. Никакой коммуникации между узлами. Никаких задержек.

Теперь с WSE-3 они могут тренировать модели в 10 раз больше. Для климатологии это революция. Для Nvidia - угроза в нише, которую они считали своей.

А что с инференсом?

Здесь Cerebras делает ход конём. Вместо того чтобы адаптировать WSE для инференса, они анонсировали отдельную линейку - Condor. Эти системы используют ту же wafer-scale технологию, но оптимизированы для предсказания.

Интересно, что OpenAI уже заключила сделку на $10 миллиардов с Cerebras именно на инференсные системы. Детали контракта засекречены, но инсайдеры говорят, что Condor сможет обслуживать миллионы одновременных запросов к GPT-5 (когда он выйдет) с задержкой ниже 50 мс.

Это прямой вызов не только Nvidia, но и специализированным инференсным чипам вроде Qualcomm AI250.

Что будет, если Cerebras правы?

Представьте мир через пять лет. Гигантские AI-модели тренируются не на кластерах из тысяч GPU, а на отдельных wafer-scale системах. Каждая система - уникальный «супер-мозг», адаптированный под конкретную задаку.

Энергопотребление дата-центров падает в разы (23 кВт против мегаваттов). Стоимость обучения новых моделей снижается на порядок. И самое главное - скорость исследований ускоряется до невозможного.

Но есть и тёмная сторона. Если одна система может заменить кластер из 8 000 GPU, что происходит с рынком GPU? TSMC заявляет о «бесконечном» спросе на AI-чипы, но этот спрос может резко перераспределиться.

Ирония в том, что успех Cerebras зависит от TSMC больше, чем от собственной архитектуры. Только TSMC может производить такие гигантские пластины с достаточным выходом годных. Это создаёт интересную зависимость: революционная американская архитектура зависит от тайваньского производства.

Ваша следующая система: что выбрать?

Если вы стартап, тренирующий модель с 100 миллиардами параметров - забудьте про Cerebras. Их системы слишком дороги и слишком специализированы. Берите Nvidia или, если можете обойти санкции, Huawei Ascend.

Если вы национальная лаборатория или корпорация с бюджетом на фундаментальные исследования - присмотритесь к CS-3. Для определённых задач он даст ускорение в 10-100 раз.

Если вы планируете инференс-сервис масштаба ChatGPT - следите за Condor. Контракт OpenAI с Cerebras может оказаться самым важным событием 2026 года в AI-инфраструктуре.

А если вы просто наблюдаете за рынком - обратите внимание на одну деталь. Benchmark Capital не инвестирует $850 миллионов в красивые презентации. Peter Fenton видит что-то, что остальные пока не разглядели. Возможно, это начало конца эпохи GPU-кластеров. Или просто дорогая нишевая технология. Время покажет. Но одно ясно точно: игра только начинается, и Nvidia с архитектурой Vera Rubin не собирается сдаваться без боя.