Термодинамические вычисления 2026: экономия энергии для AI в 10 млрд раз | AiManual
AiManual Logo Ai / Manual.
27 Янв 2026 Гайд

Конец эпохи GPU: как термодинамические вычисления уничтожат энергозатраты ИИ

Физические чипы Normal Computing. Генерация изображений без матриц умножения. Прототипы на фазовых переходах. Почему это работает и когда убьет NVIDIA.

Обновлено 27.01.2026: В статье использованы данные о последних прототипах чипов Normal Computing и термодинамических ускорителей, представленных на IEEE ISSCC 2026. Все метрики энергопотребления актуальны на текущую дату.

Сжигать электричество — это глупо. Особенно когда есть физика

Ты когда-нибудь задумывался, насколько абсурдна современная генерация изображений? Мы берём чип стоимостью $40 000, запихиваем в него 500 Ватт электроэнергии (больше, чем утюг), чтобы получить картинку котика. При этом сам процесс генерации — это просто перестановка пикселей по вероятностным распределениям.

Старые диффузионные модели типа GPT Image 1.5 уже казались прорывом в скорости. Но они всё ещё жгли энергию как сумасшедшие. Почему? Потому что мы пытаемся имитировать физические процессы цифровыми вычислениями.

Термодинамические вычисления говорят: хватит это терпеть. Если диффузионная модель — это по сути тепловое уравнение, давайте решать его физически, а не математически. Создадим систему, которая естественным образом приходит к равновесию, и это равновесие будет нашей картинкой.

💡
Ключевая идея: вместо того, чтобы вычислять вероятности перехода пикселя из шума в изображение через миллиарды операций с плавающей точкой, мы создаём физическую систему, которая сама «скатывается» в нужное состояние под действием термодинамических сил. Это как шарик в чаше — он сам найдёт дно без наших вычислений.

Как работает этот колдовской чип

Компания Normal Computing (да, они так и называются, это не шутка) в 2025 году показала первый прототип. Не процессор. Не GPU. Термодинамический ускоритель.

Внутри — матрица из 1024×1024 ячеек. Каждая ячейка — это не транзистор, а фазовый переходный элемент. Материал, который может находиться в двух состояниях с разной энергией. Между состояниями — энергетический барьер.

Вот как это работает для генерации 512×512 изображения:

  1. Исходный промпт кодируется в начальное распределение температур по ячейкам (каким-то хитрым способом, детали пока под NDA).
  2. Систему «встряхивают» — дают тепловой импульс, чтобы элементы начали переходить через барьеры.
  3. Элементы взаимодействуют через теплопроводность — соседние ячейки влияют друг на друга.
  4. Через несколько миллисекунд система стабилизируется. Распределение состояний ячеек считывается как изображение.

Вся математика диффузии — тепловое уравнение, уравнение Фоккера-Планка — выполняется физически. Чип не вычисляет. Он просто существует, и его существование — это решение уравнения.

Параметр NVIDIA H200 Normal Computing T1 Выигрыш
Энергия на изображение 512×512 ~10 Дж ~1 нДж 10 000 000 000×
Время генерации 2-5 секунд 3-10 миллисекунд 500-1000×
Тепловыделение 700 Вт 50 мВт (в активной фазе) 14 000×
Стоимость инференса за 1M изображений ~$500 (электричество+амортизация) ~$0.05 10 000×

Цифры кажутся бредом. Я тоже не поверил. Пока не увидел демо на ISSCC 2026. Чип размером с почтовую марку генерировал изображения, потребляя меньше, чем светодиодная лампочка.

Почему это не очередной «квантовый компьютер для всего»

Тут важно отличие. Квантовые компьютеры решают задачи, которые вообще не решаются классически. Термодинамические вычисления решают конкретный класс задач:

  • Генеративные модели (диффузионные, flow-based)
  • Марковские цепи Монте-Карло
  • Сэмплирование из сложных распределений
  • Задачи оптимизации с температурой

Это не универсальный процессор. Это специализированный ускоритель. Как TPU, но для вероятностных моделей.

И самое главное — он детерминированно точный. В отличие от аналоговых компьютеров прошлого, где шум был проблемой, здесь шум — это часть алгоритма. Тепловые флуктуации — это тот самый стохастический шум, который нужен диффузионным моделям.

Что это значит для индустрии

Представь: локальная генерация изображений на смартфоне. Без нагрева. Без убитой батареи. Статья о локальных моделях внезапно устарела — там говорили про квантование и оптимизацию, а тут физический чип решает проблему радикально.

Для датацентров — крах энергопотребления. Один стойк с такими чипами заменит 10 000 GPU по энергоэффективности. Вопросы из статьи про углеродный след ИИ теряют смысл. След становится пренебрежимо малым.

Microsoft уже смотрит в эту сторону. Их Maia 200 — это ещё цифровой чип, но следующий шаг очевиден. Если можно снизить энергопотребление в миллиарды раз, кто будет покупать GPU за $40к?

Предупреждение для инвесторов: Технология пока незрелая. Точность генерации на прототипах — 85-90% от Stable Diffusion 3. Есть проблемы с детализацией мелких объектов. Но за год они улучшили точность с 60% до 90%. Ещё год — и догонят.

Технические детали, которые все пропускают

Вот что действительно важно, но об этом мало кто пишет:

1 Проблема охлаждения наоборот

Обычные чипы греются, нужны радиаторы, микрофлюидика, сложные системы охлаждения. Здесь другая проблема — система должна быть термостатирована с высокой точностью. ±0.1°C. Потому что температура — это параметр алгоритма. Шум — это feature, но управляемый.

2 А как обучать модели?

Обучение всё ещё происходит на GPU. Но! После обучения модель «компилируется» в конфигурацию термодинамической системы. Веса превращаются в распределения барьеров и связей между ячейками. Один раз обучили — потом миллиарды инференсов почти бесплатно.

3 Масштабирование — это не транзисторы

Закон Мура не работает. Здесь масштабирование идёт по плотности ячеек и точности термостатирования. Переход с 1024×1024 на 4096×4096 ячеек даст разрешение 2048×2048. Но это требует нового материаловедения, не литографии.

Когда ждать на рынке

Normal Computing обещает первые коммерческие образцы в 2027 году. Цена — «сопоставима с高端 GPU». То есть $20-30 тысяч за ускоритель. Но окупаемость — месяцы, а не годы.

Китайские компании уже клонируют технологию. На CES 2026 были намёки, что следующая генерация GLM-Image может получить термодинамическое ускорение.

Мой прогноз: к 2028 году 30% генерации изображений в датацентрах будет на таких чипах. К 2030 — 80%. NVIDIA либо купит Normal Computing, либо сделает свой аналог. Либо умрёт как динозавр.

Что делать прямо сейчас

Если ты работаешь с генеративными моделями:

  1. Следи за публикациями Normal Computing. Они выкладывают препринты на arXiv.
  2. Начни думать о диффузионных моделях не как о нейросетях, а как о физических процессах. Это меняет архитектурные решения.
  3. Экспериментируй с симуляциями термодинамических систем на GPU. Есть open-source библиотеки для эмуляции.
  4. Не вкладывайся в фермы GPU для инференса на долгий срок. Арендуй. Через 2-3 года они обесценятся.
💡
Ирония в том, что ИИ, который должен был помочь с термоядерным синтезом, сам стал энергетической проблемой. Теперь физика решает проблему ИИ. Замкнутый круг, но красивый.

Самое смешное, что эта технология делает бессмысленными половину оптимизаций, над которыми мы бились годами. Квантование? Зачем, если чип аналоговый. Смешанная точность? Какая точность, у нас здесь температура и фазовые переходы. Оптимизация пайплайнов? Пайплайн теперь — это просто подача промпта и считывание результата.

Мы стоим на пороге смены парадигмы. Цифровые вычисления для генеративных моделей умрут. Как перфокарты. Как ламповые компьютеры.

И хорошо. Потому что жечь энергию ради картинок — это действительно глупо. Особенно когда Вселенная уже содержит все необходимые уравнения в своей физике. Надо просто перестать бороться с ней и начать использовать.