Сеть трещит по швам, а ИИ просит еще
Все уже привыкли к новостям о том, что очередной гиперскейлер строит кампус на гигаватт. Энергосистемы целых штатов стонут под нагрузкой — американские сети трещат, и это не метафора. Параллельно стартапы вроде C2i пытаются выжать лишние 20% КПД из существующих ЦОДов — энергетический кризис AI никуда не делся. Но Nvidia, кажется, нашла способ не бороться за каждый мегаватт, а просто взять там, где он пока никому не нужен.
Речь о пилотном проекте, о котором компания объявила 12 мая 2026 года. Вместе с EPRI (Electric Power Research Institute) и тремя региональными энергокомпаниями Nvidia запускает серию микро-дата-центров прямо на действующих электрических подстанциях. Мощность каждого — от 5 до 20 МВт. Не гигаскейл, но таких точек можно натыкать сотнями.
Суть идеи: подстанции часто имеют резерв мощности, заложенный при проектировании, либо сталкиваются с избытком генерации от ВИЭ. Вместо того чтобы сбрасывать эту энергию впустую, Nvidia предлагает ставить туда контейнеры с GPU и гонять задачи инференса — особенно те, что не требуют ответа за миллисекунды.
Как выглядит «подстанционный» дата-центр
Это не бетонный монолит. Это стандартный 40-футовый контейнер, внутри которого стоят стойки с GPU Nvidia H200 и новыми ускорителями Blackwell, система охлаждения (жидкостная, разумеется) и собственный контроллер управления питанием. Контейнер подключается напрямую к шине подстанции — минуя долгие согласования с сетью. Модульные дата-центры на грузовиках уже показали, что скорость развертывания можно ускорить в 10 раз. Здесь принцип тот же, но вместо логистики — электрическая инфраструктура.
Ключевая фишка — гибкое энергопотребление. Контроллер мониторит загрузку подстанции в реальном времени и регулирует нагрузку AI-кластера. Если на подстанцию приходит дешевая «зеленая» энергия (ветер, солнце) — GPU работают на полную катушку. Если сеть перегружена — система автоматически снижает частоту или даже приостанавливает некритичные задачи. Никаких договоров на резервирование мощности: сервис работает по принципу demand response.
Важный нюанс: такая архитектура не годится для онлайн-инференса голосовых ассистентов или автономного вождения. Но для пакетной обработки видео, обучения моделей среднего размера, рендеринга или научных расчетов — идеально. Задержка в несколько секунд никого не убьет, а дешевая энергия может окупить оборудование за год.
Кто уже в деле и что дальше
Первые пилоты стартуют в Техасе, Калифорнии и Колорадо. Партнерами Nvidia выступили компании Duke Energy, Southern Company и Xcel Energy. EPRI выступает интегратором по безопасности и стандартам. Сроки — первые объекты должны заработать к сентябрю 2026 года.
- 5 МВт — минимальная конфигурация на 32 стойки с H200 (около 2000 GPU).
- 20 МВт — максимальная, до 128 стоек с Blackwell B200.
- Стоимость контейнера — от $3 млн до $15 млн в зависимости от наполнения.
- Окупаемость за счет дешевой энергии — 12–18 месяцев (по оценке Nvidia).
Если пилот пройдет успешно, Nvidia планирует открыть программу для сторонних операторов — по сути, франчайзинг микродата-центров на подстанциях. Любая энергокомпания сможет купить «коробку» и сдавать вычислительные мощности в аренду. Новые законы об энергопотреблении, которые вводят ограничения на строительство классических ЦОДов в жилых зонах, только подстегнут этот тренд.
Почему это не очередной пиар-пилот
Во-первых, Nvidia уже показала технологию GridScale AI на GTC 2026 — программный слой, который позволяет балансировать нагрузку между распределенными кластерами. Во-вторых, у компании есть реальный опыт: их модульный дата-центр в Орегоне с осени 2025 года работает на избытках гидроэнергии и выдает 8 MW вычислительной мощности для внутренних задач. Экономика совпадает.
Конечно, есть и риски. Охлаждение в контейнере на подстанции — нетривиальная задача летом в Техасе. Электромагнитные помехи от высоковольтного оборудования могут влиять на работу GPU. Плюс вопросы безопасности: подстанции — критическая инфраструктура, доступ посторонним к GPU не поощряется. Но Nvidia обещает, что все контейнеры будут физически изолированы и имеют собственные UPS.
Тем не менее, тренд очевиден: AI-нагрузка будет дробиться и уходить туда, где есть свободная энергия, а не наоборот. Гиперскейлеры никуда не денутся, но доля распределенных микродата-центров может вырасти до 15% рынка к 2028 году. Дешевый инференс станет товаром, как электроэнергия. И первым, кто поставит GPU на каждую подстанцию, достанется самый лакомый кусок.
Советую держать в голове этот сценарий, когда в следующий раз увидите трансформаторную будку во дворе. Через пару лет там может жужжать не 50 герц, а целый кластер Blackwell.