C2i решает проблему потерь 20% энергии в AI-датацентрах | Peak XV инвестирует | AiManual
AiManual Logo Ai / Manual.
16 Фев 2026 Новости

Энергетический кризис AI: как стартап C2i решает проблему потерь 20% мощности в дата-центрах

Как стартап C2i Semiconductors борется с потерями 15-20% мощности в GPU для ИИ. Технология бывших инженеров Texas Instruments и новые инвестиции Peak XV Partner

Мощность утекает в никуда

Представьте, что каждый пятый доллар из вашего счета за электричество в дата-центре выливается на пол. А потом испаряется. Примерно это и происходит прямо сейчас в каждом центре обработки данных, где обучают или запускают большие языковые модели.

Цифра в 15-20% потерь при преобразовании энергии - не страшилка. Это реальность, с которой столкнулись Meta, Google, Microsoft и все, кто гоняет кластеры из тысяч GPU H100 или их наследников B200. Проблема не в чипах Nvidia. Она спрятана глубже - в системах питания.

Контекст: пока все обсуждают архитектуры моделей и размеры контекстных окон, реальный кризис AI разворачивается на уровне физики. Американские сети трещат под нагрузкой, а политики вводят моратории на строительство новых дата-центров. Каждый потерянный ватт становится проблемой стратегического уровня.

Где прячется эта дыра?

Электричество в розетке - переменный ток. GPU и другие ускорители AI работают на постоянном низковольтном токе. Преобразование AC/DC (переменного в постоянный) и дальнейшее понижение напряжения до уровня, который может переварить чип - вот где теряется энергия.

Традиционные системы питания (те самые, что идут от стенки к стойке) просто не рассчитаны на современные нагрузки. Они были созданы для серверов общего назначения, а не для кластеров, которые потребляют мегаватты и требуют миллисекундной реакции на скачки нагрузки.

Тип потерьГде происходитПримерный процент
Преобразование AC/DCБлоки питания стоек8-12%
Понижение напряженияVRM на материнских платах5-8%
Распределение по стойкеКабели, разъемы2-3%

Сложите эти проценты. Получите те самые 15-20%, которые превращаются в тепло и требуют еще больших затрат на охлаждение. Замкнутый круг, где каждый ватт полезной работы требует полтора ватта из сети.

Входят бывшие инженеры Texas Instruments

Стартап C2i Semiconductors вышел из стелса 15 февраля 2026 года с раундом финансирования от Peak XV Partners (бывший Sequoia Capital India). Основатели - ветераны Texas Instruments, десятилетиями работавшие над системами питания. Они посмотрели на проблему не как софтверные инженеры, а как физики.

Их решение звучит просто: если нельзя эффективно преобразовывать энергию на пути к GPU, нужно изменить сам путь. C2i разрабатывает архитектуру питания, которая интегрирует преобразователи напряжения прямо в упаковку чипа (package-level power delivery).

💡
Суть технологии C2i: вместо того чтобы тащить высоковольтный постоянный ток через всю стойку и понижать его у каждого GPU, они подают переменный ток ближе к чипам и преобразуют его прямо на подложке. Это сокращает путь энергии на порядок и радикально снижает потери.

В цифрах это выглядит так: вместо 20% потерь - 5%. На масштабах дата-центра, потребляющего 100 МВт, экономия составляет 15 МВт. Это мощность небольшого города. Или, если перевести на деньги, десятки миллионов долларов в год на одном объекте.

Почему это важно сейчас? Потому что все горит

Инвестиции в AI-инфраструктуру в 2025-2026 годах напоминают золотую лихорадку. Триллионы долларов вливаются в строительство дата-центров, но энергосистемы не успевают. Политики начинают регулировать доступ к электричеству, а операторы сетей отказывают в подключении новых мощностей.

В такой ситуации каждый сэкономленный процент эффективности становится конкурентным преимуществом. Компания, которая сможет запустить на 20% больше GPU при том же энергопотреблении, выиграет гонку. Особенно когда Microsoft предлагает счёт за электричество своим облачным клиентам.

Ирония ситуации: пока ИИ обещает решить энергетические проблемы человечества, его собственная инфраструктура становится главным потребителем энергии. Гипермасштабные дата-центры уже сегодня пожирают электричество целых регионов.

Что это меняет для индустрии?

Во-первых, экономику. Стоимость обучения моделей вроде GPT-5 или Gemini Ultra на 20% состоит из потерь в системах питания. Устранив их, можно либо снизить цены, либо обучать больше моделей.

Во-вторых, географию. Сегодня дата-центры строят там, где есть доступ к дешевой энергии - часто в удаленных регионах. С технологией C2i эффективность перестает быть привязанной к месту. Можно строить ближе к пользователям, снижая задержки.

В-третьих, экологию. Каждый сэкономленный мегаватт - это тонны невыброшенного CO2. В мире, где ESG-отчетность становится обязательной, это не просто экономия, а репутация.

  • Для облачных провайдеров: возможность предлагать более дешевые инстансы GPU
  • Для исследователей: больше вычислительных часов за те же гранты
  • Для стартапов: снижение порога входа в обучение собственных моделей
  • Для операторов сетей: отсрочка необходимости строить новые линии электропередач

А что с масштабированием?

Здесь начинается самое интересное. Тренд в AI - увеличение размеров моделей и кластеров. Если в 2024 году кластер из 10 000 GPU H100 считался большим, то к 2026 речь идет о сотнях тысяч GPU в одном проекте. Планы Маска на 100 ГВт выглядят фантастикой именно из-за проблем с питанием.

Технология C2i решает проблему масштабирования на аппаратном уровне. Их архитектура позволяет создавать модульные системы питания, которые масштабируются вместе с кластером. Нет необходимости перепроектировать всю инфраструктуру при добавлении новых стоек.

Но есть нюанс. Внедрение требует сотрудничества с производителями чипов (Nvidia, AMD, Google с их TPU) и системными интеграторами. Это не плагин, который можно установить на существующую инфраструктуру. Это новая архитектура, требующая пересмотра всего стека - от проектирования плат до систем охлаждения.

Инвестиционный ракурс: почему Peak XV верит в C2i

Peak XV Partners (ранее Sequoia Capital India & Southeast Asia) известны своими ставками на инфраструктурные технологии. Их инвестиция в C2i - не просто венчурная сделка. Это ставка на то, что следующее десятилетие в AI определит не софт, а железо.

Контекст: пока все СМИ пишут про новые модели и API, умные деньги идут в физическую инфраструктуру. Google тратит миллиарды на дата-центры, потому что понимает - без бетона и электрительства не будет и ИИ.

C2i находится на пересечении трех трендов:

  1. Энергетический кризис AI - спрос на эффективность растет экспоненциально
  2. Консолидация поставщиков - Nvidia доминирует в GPU, но экосистема вокруг нее фрагментирована
  3. Регуляторное давление - правительства начинают ограничивать энергопотребление дата-центров

Риски очевидны: технология требует принятия со стороны гигантов вроде Nvidia, сроки внедрения измеряются годами, а конкуренты не дремлют. Но если C2i удастся стать стандартом де-факто в системах питания для AI, их оценка может вырасти на порядки.

Что дальше? Смотрите на кадры

Самая большая проблема C2i - не технологическая, а кадровая. Им нужны инженеры, которые понимают и физику полупроводников, и системы питания, и тепловые расчеты. Таких специалистов на рынке - единицы. Кризис кадров для AI ударит по всем, но особенно по таким нишевым игрокам.

Мой прогноз: в течение 2026 года мы увидим первую интеграцию технологии C2i в тестовых стендах крупных облачных провайдеров. К 2027 - первые коммерческие развертывания. А к 2028 вопрос эффективности систем питания станет таким же важным, как сегодня вопрос производительности GPU.

И последнее. Следите не за анонсами новых моделей ИИ. Следите за отчетами о потреблении энергии. Когда компания вроде Microsoft или Google начнет публиковать данные об эффективности своих дата-центров - вот тогда поймете, кто выиграл эту гонку. А пока что готовьте no-regret moves на случай коллапса пузыря AI-инфраструктуры.

P.S. Если вы думаете, что 20% - это мало, посчитайте, сколько стоит мегаватт-час в Калифорнии. Теперь умножьте на 8760 часов в году. Теперь на 100 МВт мощности типичного AI-дата-центра. Получили цифру с восемью нулями. Вот почему инженеры из Texas Instruments могут стать богаче создателей ChatGPT.