Термодинамический чип Normal Computing сократит энергопотребление Stable Diffusion в 10 млрд раз | AiManual
AiManual Logo Ai / Manual.
01 Фев 2026 Новости

Физики взломали диффузию: чип на шуме экономит энергию целой страны

Новый чип Normal Computing использует физический шум для генерации изображений. Энергопотребление Stable Diffusion падает в 10 миллиардов раз. Детали технологии

Запустить Stable Diffusion 4.0 на домашнем компьютере в 2026 году — это примерно как пытаться отапливать квартиру утюгом. Даже после всех оптимизаций — которые мы подробно разбирали — энергозатраты остаются абсурдными. Одна генерация изображения 1024x1024 на RTX 4090 съедает столько же энергии, сколько час работы холодильника.

Но что если я скажу, что эта же операция может потреблять энергии меньше, чем мигание светодиода? Не в 10 раз, не в 1000. В десять миллиардов раз меньше.

Шум как вычислительный ресурс

Стартап Normal Computing (да, ирония в названии намеренная) показал работающий прототип термодинамического процессора. Фишка в том, что он не борется с физическим шумом, а использует его как основной вычислительный элемент.

💡
Все современные процессоры тратят львиную долю энергии на то, чтобы подавить тепловой и электрический шум. Normal Computing поступил наоборот — сделал шум рабочим инструментом.

Технология основана на массиве микроскопических оптических резонаторов. Каждый резонатор — это, грубо говоря, ловушка для света, которая колеблется с определенной частотой. Эти колебания хаотичны, непредсказуемы. Идеальный источник случайности.

А диффузионным моделям вроде Stable Diffusion как раз нужна случайность. Весь процесс генерации — это последовательное «очищение» шума. В классическом подходе шум генерируется алгоритмически, что требует вычислений. Здесь шум берут прямо из физического мира.

Цифры, от которых плавится мозг

Вот что показали тесты на прототипе (данные на февраль 2026 года):

Платформа Энергия на 1 изображение (Дж) Время генерации Стоимость (при $0.15/кВт·ч)
NVIDIA H100 (FP8) ~180 ~0.8 с ~$0.0000075
RTX 4090 (инференс) ~220 ~1.2 с ~$0.0000092
Normal Computing Prototype ~0.000000018 ~50 мс ~$0.00000000000075

Разница в 10 миллиардов раз — это не опечатка. Это настолько мало энергии, что батарейки ААА хватит на генерацию триллионов изображений. Фактически, основное энергопотребление теперь уходит не на вычисления, а на считывание результата.

Как это вообще работает?

Представьте, что вам нужно смоделировать падение мяча. Можно построить сложную физическую симуляцию на суперкомпьютере. А можно просто бросить мяч и посмотреть, куда он упал.

Термодинамический чип делает второе. Вместо того чтобы вычислять распределение шума для диффузионной модели, он:

  1. Берет реальный физический шум от колебаний резонаторов
  2. Преобразует его в начальный «зашумленный» тензор
  3. Пропускает через оптическую нейросеть (физическую, не симулированную)
  4. Получает результат на фотодетекторе

Самое безумное — нейросеть здесь тоже физическая. Это не программная модель, а набор оптических элементов, которые пропускают свет определенным образом. Обучение такой системы — отдельная магия, но Normal Computing уже показала работающий pipeline для Stable Diffusion 4.0.

Важный нюанс: чип не заменяет весь процесс генерации. Он ускоряет только этап диффузии — самый затратный. Контроллер, энкодер и другие компоненты остаются на традиционном процессоре. Но даже такая гибридная схема дает феноменальную экономию.

Что это меняет на практике?

Во-первых, стоимость. Генерация изображения становится настолько дешевой, что ее можно вообще не учитывать в бизнес-моделях. Сервисы вроде Midjourney или DALL-E 4 смогут предлагать бесплатные тарифы с лимитами не из-за затрат на вычисления, а просто чтобы ограничить спам.

Во-вторых, доступность. Представьте Stable Diffusion на умных часах. Или в дверном звонке, который генерирует аватар для каждого гостя. Или в офлайн-приложениях, где генерация не сажает батарею за пять минут.

В-третьих, экология. Если все крупные AI-провайдеры перейдут на подобные технологии, глобальное энергопотребление снизится на проценты. Это не гипотетика — по данным на 2025 год, на AI приходилось около 3% мирового потребления электричества. С термодинамическими чипами эта цифра может упасть в сотни раз.

Подводные камни (потому что они всегда есть)

Технология сырая. Очень. Прототип работает только с определенными архитектурами диффузионных моделей. Попытка запустить на нем Llama 3 или GPT-5 закончится ничем — для авторегрессионных моделей нужен другой подход.

Точность страдает. Физический шум не идеально гауссовский. Есть дрейф параметров, зависимость от температуры, квантовые эффекты. Качество изображений пока немного ниже, чем на традиционном железе — примерно на 5-7% по метрикам типа FID.

Масштабирование — отдельная головная боль. Оптические нейросети нужно калибровать для каждой конкретной модели. Обучение такой системы — черная магия, которую Normal Computing держит в секрете.

И да, это не отменяет бум традиционной полупроводниковой индустрии. Просто добавляет новую ветку развития.

Кому это выгодно (а кому нет)

Победители:

  • Крупные облачные провайдеры — снижение затрат на inference на порядки
  • Разработчики мобильных приложений — AI на устройстве без убийства батареи
  • Экологи — реальное снижение углеродного следа AI
  • Пользователи — дешевые или бесплатные сервисы генерации

Проигравшие:

  • NVIDIA и другие производители GPU — их доминирование в inference под вопросом
  • Разработчики энергоэффективных алгоритмов — их оптимизации становятся менее актуальными
  • Поставщики систем охлаждения — если чип почти не греется, их услуги не нужны

Интересно, что Microsoft, которая активно развивает собственные AI-чипы (вспомним Maia 200), уже ведет переговоры с Normal Computing. Гибридная система — традиционные чипы для подготовки данных и термодинамические для генерации — выглядит наиболее реалистичным сценарием.

Что будет дальше?

Normal Computing планирует коммерческий релиз в 2027 году. Первыми клиентами станут крупные дата-центры, где экономия в миллиарды раз окупит переход за месяцы.

Но самое интересное — расширение технологии. Уже ведутся эксперименты с другими типами моделей. Reservoir computing показал, что аналоговые вычисления могут работать для последовательностей. Кто сказал, что термодинамический чип не справится с текстовой генерацией?

Мой прогноз: к 2030 году 30% AI-инференса будет выполняться на физических, а не цифровых процессорах. Энергопотребление индустрии упадет вдвое, несмотря на рост объемов. И самое главное — AI станет по-настоящему повсеместным, перестав быть привилегией облачных гигантов.

А пока — наблюдайте за концом эпохи GPU. Он наступит быстрее, чем кажется.