Нет, это не опечатка. Четыре триллиона транзисторов в одном чипе
Представьте стандартный 300-мм кремниевый пластин. Теперь представьте, что на нём нет десятков отдельных чипов. Вместо этого - один гигантский монолит. 46 225 квадратных миллиметров кремния. 900 000 AI-ядер. И да, 4 000 000 000 000 транзисторов. Wafer Scale Engine 3 от Cerebras - это не просто ещё один AI-ускоритель. Это физический вызов всей логике полупроводниковой индустрии.
Benchmark поставил $850 миллионов. Почему?
Peter Fenton из Benchmark Capital известен тем, что не бросает деньги на ветер. Его инвестиции в Uber, Twitter, Yelp стали легендарными. Теперь он ставит $850 миллионов на Cerebras. Причина проста: физика.
Традиционные GPU-кластеры - это тысячи отдельных чипов, связанных медленными межсоединениями. Данные путешествуют между ними как туристы в аэропорту с пересадками. Каждая пересадка - задержка. Каждая задержка - потеря производительности.
WSE-3 решает эту проблему кардинально. Все 900 000 ядер связаны единой сетью на кристалле с пропускной способностью 220 Петабит/с. Данные не путешествуют между чипами. Они перемещаются внутри одного гигантского чипа. Разница как между телефонным звонком через спутник и разговором в одной комнате.
Война архитектур: монолит против легиона
Пока Nvidia совершенствует свою архитектуру Vera Rubin с обещаниями революционной эффективности, Cerebras играет в другую игру. Они не пытаются сделать чип лучше. Они пытаются сделать его другим.
| Параметр | Cerebras WSE-3 | Nvidia B200 | Microsoft Maia 200 |
|---|---|---|---|
| Транзисторы | 4 трлн | 208 млрд | 105 млрд |
| AI-ядра | 900 000 | Не раскрывается | Специализированные блоки |
| Пропускная способность памяти | 20 ПБ/с | 8 ТБ/с (HBM3e) | 6.4 ТБ/с |
| Энергопотребление системы | 23 кВт | ~1 кВт на чип | ~700 Вт |
Цифры впечатляют. Но реальный вопрос: что они значат для разработчиков? В конце концов, китайские AI-чипы Huawei и Cambricon тоже показывали красивые цифры на бумаге.
Практика против теории: где WSE-3 действительно сияет
Здесь начинается самое интересное. Cerebras не продаёт отдельные чипы. Они продают системы CS-3 - готовые стойки с охлаждением, питанием и софтом. Цена? От $2.5 миллионов за систему. Дорого? Да. Но посчитайте дальше.
Для обучения модели размером с GPT-4o Turbo (примерно 1.8 триллиона параметров) потребуется:
- Кластер из 8 000 GPU Nvidia H100: ~$250 миллионов за оборудование
- Энергопотребление: ~2.5 МВт
- Задержка обновления градиентов: 10-20 мс
Одна система CS-3 на WSE-3:
- Стоимость: $2.5-3 миллиона
- Энергопотребление: 23 кВт
- Задержка обновления градиентов: микросекунды (всё внутри одного чипа)
Но есть нюанс: WSE-3 не универсален. Он создан для одной задачи - обучения гигантских моделей с нуля. Для инференса, мелких моделей или разнородных нагрузок он проигрывает специализированным чипам вроде Microsoft Maia 200.
Проблема, о которой никто не говорит: выход годных
Производство WSE-3 - это инженерный кошмар. Обычный чип размером 800 мм² имеет вероятность дефекта около 5%. При размере 46 225 мм² вероятность того, что на пластине не будет ни одного дефекта, стремится к нулю.
Cerebras решила это гениально просто: они не выбрасывают пластину с дефектами. Вместо этого их софт автоматически изолирует дефектные секции и перенаправляет вычисления на рабочие ядра. Это как иметь город с несколькими заблокированными улицами - вы просто едете по другим.
Но у этого подхода есть цена. Каждая система CS-3 уникальна. Её топология ядер зависит от конкретных дефектов на её пластине. Это означает, что софт должен адаптироваться под каждую конкретную систему. Для корпоративных клиентов, привыкших к идентичным серверам, это культурный шок.
Кто покупает эти монстры?
Ответ удивит. Не гиганты вроде Google или Meta. По крайней мере, не публично. Основные клиенты Cerebras - национальные лаборатории и исследовательские институты.
Argonne National Laboratory использует CS-2 (предыдущее поколение) для климатического моделирования. Они тренируют модели, которые предсказывают ураганы с точностью, недоступной традиционным суперкомпьютерам. Причина? Модель полностью помещается в память одного WSE. Никакой коммуникации между узлами. Никаких задержек.
Теперь с WSE-3 они могут тренировать модели в 10 раз больше. Для климатологии это революция. Для Nvidia - угроза в нише, которую они считали своей.
А что с инференсом?
Здесь Cerebras делает ход конём. Вместо того чтобы адаптировать WSE для инференса, они анонсировали отдельную линейку - Condor. Эти системы используют ту же wafer-scale технологию, но оптимизированы для предсказания.
Интересно, что OpenAI уже заключила сделку на $10 миллиардов с Cerebras именно на инференсные системы. Детали контракта засекречены, но инсайдеры говорят, что Condor сможет обслуживать миллионы одновременных запросов к GPT-5 (когда он выйдет) с задержкой ниже 50 мс.
Это прямой вызов не только Nvidia, но и специализированным инференсным чипам вроде Qualcomm AI250.
Что будет, если Cerebras правы?
Представьте мир через пять лет. Гигантские AI-модели тренируются не на кластерах из тысяч GPU, а на отдельных wafer-scale системах. Каждая система - уникальный «супер-мозг», адаптированный под конкретную задаку.
Энергопотребление дата-центров падает в разы (23 кВт против мегаваттов). Стоимость обучения новых моделей снижается на порядок. И самое главное - скорость исследований ускоряется до невозможного.
Но есть и тёмная сторона. Если одна система может заменить кластер из 8 000 GPU, что происходит с рынком GPU? TSMC заявляет о «бесконечном» спросе на AI-чипы, но этот спрос может резко перераспределиться.
Ирония в том, что успех Cerebras зависит от TSMC больше, чем от собственной архитектуры. Только TSMC может производить такие гигантские пластины с достаточным выходом годных. Это создаёт интересную зависимость: революционная американская архитектура зависит от тайваньского производства.
Ваша следующая система: что выбрать?
Если вы стартап, тренирующий модель с 100 миллиардами параметров - забудьте про Cerebras. Их системы слишком дороги и слишком специализированы. Берите Nvidia или, если можете обойти санкции, Huawei Ascend.
Если вы национальная лаборатория или корпорация с бюджетом на фундаментальные исследования - присмотритесь к CS-3. Для определённых задач он даст ускорение в 10-100 раз.
Если вы планируете инференс-сервис масштаба ChatGPT - следите за Condor. Контракт OpenAI с Cerebras может оказаться самым важным событием 2026 года в AI-инфраструктуре.
А если вы просто наблюдаете за рынком - обратите внимание на одну деталь. Benchmark Capital не инвестирует $850 миллионов в красивые презентации. Peter Fenton видит что-то, что остальные пока не разглядели. Возможно, это начало конца эпохи GPU-кластеров. Или просто дорогая нишевая технология. Время покажет. Но одно ясно точно: игра только начинается, и Nvidia с архитектурой Vera Rubin не собирается сдаваться без боя.