Nvidia микродата-центры на подстанциях: AI-инференс на свободной энергии | AiManual
AiManual Logo Ai / Manual.
17 Май 2026 Новости

Nvidia разместит AI-микродата-центры прямо на подстанциях: пора брать энергию, пока она есть

Nvidia запускает пилот распределенных микродата-центров мощностью 5-20 МВт на подстанциях. Как дешевая энергия изменит ландшафт AI-инференса.

Сеть трещит по швам, а ИИ просит еще

Все уже привыкли к новостям о том, что очередной гиперскейлер строит кампус на гигаватт. Энергосистемы целых штатов стонут под нагрузкой — американские сети трещат, и это не метафора. Параллельно стартапы вроде C2i пытаются выжать лишние 20% КПД из существующих ЦОДов — энергетический кризис AI никуда не делся. Но Nvidia, кажется, нашла способ не бороться за каждый мегаватт, а просто взять там, где он пока никому не нужен.

Речь о пилотном проекте, о котором компания объявила 12 мая 2026 года. Вместе с EPRI (Electric Power Research Institute) и тремя региональными энергокомпаниями Nvidia запускает серию микро-дата-центров прямо на действующих электрических подстанциях. Мощность каждого — от 5 до 20 МВт. Не гигаскейл, но таких точек можно натыкать сотнями.

Суть идеи: подстанции часто имеют резерв мощности, заложенный при проектировании, либо сталкиваются с избытком генерации от ВИЭ. Вместо того чтобы сбрасывать эту энергию впустую, Nvidia предлагает ставить туда контейнеры с GPU и гонять задачи инференса — особенно те, что не требуют ответа за миллисекунды.

Как выглядит «подстанционный» дата-центр

Это не бетонный монолит. Это стандартный 40-футовый контейнер, внутри которого стоят стойки с GPU Nvidia H200 и новыми ускорителями Blackwell, система охлаждения (жидкостная, разумеется) и собственный контроллер управления питанием. Контейнер подключается напрямую к шине подстанции — минуя долгие согласования с сетью. Модульные дата-центры на грузовиках уже показали, что скорость развертывания можно ускорить в 10 раз. Здесь принцип тот же, но вместо логистики — электрическая инфраструктура.

Ключевая фишка — гибкое энергопотребление. Контроллер мониторит загрузку подстанции в реальном времени и регулирует нагрузку AI-кластера. Если на подстанцию приходит дешевая «зеленая» энергия (ветер, солнце) — GPU работают на полную катушку. Если сеть перегружена — система автоматически снижает частоту или даже приостанавливает некритичные задачи. Никаких договоров на резервирование мощности: сервис работает по принципу demand response.

Важный нюанс: такая архитектура не годится для онлайн-инференса голосовых ассистентов или автономного вождения. Но для пакетной обработки видео, обучения моделей среднего размера, рендеринга или научных расчетов — идеально. Задержка в несколько секунд никого не убьет, а дешевая энергия может окупить оборудование за год.

Кто уже в деле и что дальше

Первые пилоты стартуют в Техасе, Калифорнии и Колорадо. Партнерами Nvidia выступили компании Duke Energy, Southern Company и Xcel Energy. EPRI выступает интегратором по безопасности и стандартам. Сроки — первые объекты должны заработать к сентябрю 2026 года.

  • 5 МВт — минимальная конфигурация на 32 стойки с H200 (около 2000 GPU).
  • 20 МВт — максимальная, до 128 стоек с Blackwell B200.
  • Стоимость контейнера — от $3 млн до $15 млн в зависимости от наполнения.
  • Окупаемость за счет дешевой энергии — 12–18 месяцев (по оценке Nvidia).

Если пилот пройдет успешно, Nvidia планирует открыть программу для сторонних операторов — по сути, франчайзинг микродата-центров на подстанциях. Любая энергокомпания сможет купить «коробку» и сдавать вычислительные мощности в аренду. Новые законы об энергопотреблении, которые вводят ограничения на строительство классических ЦОДов в жилых зонах, только подстегнут этот тренд.

Почему это не очередной пиар-пилот

Во-первых, Nvidia уже показала технологию GridScale AI на GTC 2026 — программный слой, который позволяет балансировать нагрузку между распределенными кластерами. Во-вторых, у компании есть реальный опыт: их модульный дата-центр в Орегоне с осени 2025 года работает на избытках гидроэнергии и выдает 8 MW вычислительной мощности для внутренних задач. Экономика совпадает.

Конечно, есть и риски. Охлаждение в контейнере на подстанции — нетривиальная задача летом в Техасе. Электромагнитные помехи от высоковольтного оборудования могут влиять на работу GPU. Плюс вопросы безопасности: подстанции — критическая инфраструктура, доступ посторонним к GPU не поощряется. Но Nvidia обещает, что все контейнеры будут физически изолированы и имеют собственные UPS.

Тем не менее, тренд очевиден: AI-нагрузка будет дробиться и уходить туда, где есть свободная энергия, а не наоборот. Гиперскейлеры никуда не денутся, но доля распределенных микродата-центров может вырасти до 15% рынка к 2028 году. Дешевый инференс станет товаром, как электроэнергия. И первым, кто поставит GPU на каждую подстанцию, достанется самый лакомый кусок.

Советую держать в голове этот сценарий, когда в следующий раз увидите трансформаторную будку во дворе. Через пару лет там может жужжать не 50 герц, а целый кластер Blackwell.

Подписаться на канал