Кто платит $50 миллиардов за конец железного апокалипсиса?
Помните тот момент, когда вы увидели ценник на RTX 5090 Ti с 48 ГБ HBM3E? $4999. Не шутка. Или когда пытались заказать серверную стойку с восемью H100 - очередь на 9 месяцев. Это был RAMmageddon 2024-2025. Сейчас, 29 марта 2026 года, все меняется. Буквально на этой неделе.
SK hynix объявила о самом крупном технологическом IPO десятилетия. $50 миллиардов. Для сравнения - это больше, чем рыночная капитализация AMD в 2023 году. Все эти деньги направят на строительство трех новых фабрик по производству HBM-памяти. Не просто памяти. Той самой, которую NVIDIA засовывает в каждую новую архитектуру Blackwell и которая до сих пор была главным узким местом.
HBM4 - следующее поколение памяти для AI-ускорителей. Пропускная способность: 2 ТБ/с против 1.5 ТБ/с у HBM3E. Энергопотребление: на 30% ниже. SK hynix планирует начать массовое производство в конце 2026 года. Именно под эти мощности и привлечены инвестиции через IPO.
Почему HBM - это не просто память, а горло бутылки всей индустрии
Звучит парадоксально. Производителей памяти десятки. Но HBM (High Bandwidth Memory) - это другая лига. Здесь чипы памяти упаковываются вертикально и соединяются с процессором через кремниевые переходники (interposers). Плотность - безумная. Сложность производства - космическая.
Вот цифры, которые заставят вас понять масштаб. Для производства одного модуля HBM4 нужно:
- 8-12 кристаллов DRAM, уложенных вертикально
- Кремниевый переходник с десятками тысяч микроскопических соединений
- Техпроцесс 1β nm (что примерно соответствует 12-14 нм, но для памяти)
- Сборка в герметичный корпус с тепловодящим интерфейсом
До IPO SK hynix могла производить около 300 тысяч модулей HBM в месяц. Этого хватало примерно на 40 тысяч GPU NVIDIA Blackwell. В то время как спрос оценивался в 200 тысяч GPU ежемесячно. Дефицит в 5 раз. Цены взлетели. Очереди растянулись. Наш материал про дефицит чипов памяти до 2030 казался пророческим.
| Производитель | Мощности HBM до IPO (тыс. модулей/мес) | Планы после IPO (тыс. модулей/мес) | Срок выхода на мощность |
|---|---|---|---|
| SK hynix | 300 | 850 | Q4 2026 |
| Samsung | 200 | 500 | Q1 2027 |
| Micron | 150 | 400 | Q2 2027 |
Что это значит для вашего кошелька? Цифры, а не обещания
Давайте переведем гигабайты и терафлопсы в доллары. На данный момент (март 2026) серверная карта NVIDIA GB200 с 192 ГБ HBM3E стоит около $70 000. Из этой суммы примерно $18 000 - стоимость самой HBM-памяти. Это 25% цены. Безумие.
После выхода на полную мощность новых фабрик SK hynix аналитики Goldman Sachs прогнозируют:
- Снижение стоимости HBM-памяти на 35-40% к концу 2027 года
- Падение цен на флагманские AI-ускорители на 20-25%
- Сокращение сроков поставок с 9 месяцев до 2-3 месяцев
- Появление «бюджетных» карт с HBM для малого бизнеса
А теперь главное. NVIDIA уже заявила, что в архитектуре Rubin (ожидается в 2027 году) будет использоваться HBM4. Объем памяти на карту - до 288 ГБ. Без нового производства от SK hynix эти карты стали бы коллекционными раритетами по цене квартиры в Москве. Сейчас у них есть шанс стать рабочим инструментом.
Не ждите мгновенного обвала цен. Новые фабрики запустятся только в конце 2026 года. Первые партии доступной HBM появятся на рынке в начале 2027 года. Но тендеры на закупки AI-железа уже пересматриваются с учетом этих прогнозов.
А что с теми, кто предлагает альтернативы HBM?
Пока SK hynix и Samsung доминируют в HBM, другие игроки ищут обходные пути. В наших предыдущих материалах мы подробно разбирали RRAM против стены памяти и MRAM для экономии энергии. Эти технологии выглядят революционно, но есть нюанс.
Все они находятся на стадии прототипов или мелкосерийного производства. Да, RRAM обещает в 100 раз большую плотность. Да, MRAM экономит 90% энергии. Но сегодня, в марте 2026 года, ни одна из этих технологий не готова к массовому производству в объемах, необходимых для индустрии AI. Потребуется еще 3-5 лет.
HBM выигрывает войну не потому, что она идеальна. А потому, что она работает здесь и сейчас. И $50 миллиардов от IPO SK hynix укрепляют эту позицию до уровня неприступной крепости.
Ироничный поворот: SK hynix как производитель железа и софта
Самое забавное в этой истории - двойная роль SK hynix. С одной стороны, они производят железо (HBM) для всех AI-гигантов. С другой - как мы писали в материале про гигантскую MOE-модель на 519B параметров, они сами создают огромные языковые модели.
Получается идеальный цикл. SK hynix производит память → NVIDIA покупает ее для своих GPU → Разработчики тренируют модели на этих GPU → SK hynix использует эти GPU для тренировки своих моделей → Их модели помогают оптимизировать производство памяти. Замкнутый круг, где каждый виток приносит миллиарды.
А пока - наблюдайте за котировками SK hynix на бирже. Их рост будет точным барометром того, насколько быстро закончится RAMmageddon. И насколько дешевле станет железо для следующего прорыва в AI.