Sovereign AI в Индии: G42 и Cerebras строят 8 экзафлопс для локальных моделей | AiManual
AiManual Logo Ai / Manual.
20 Фев 2026 Новости

Индия строит свой AI-щит: 8 экзафлопс от G42 и Cerebras против зависимости от Запада

Как Индия создает суверенную AI-инфраструктуру на 8 экзафлопс с Cerebras WSE-3. Обход санкций, контроль данных и новая война за суперкомпьютеры.

Когда 8 экзафлопс - это не хайп, а вопрос национальной безопасности

В феврале 2026 года цифры начинают терять смысл. Особенно когда речь идет о 8 экзафлопсах - мощности, достаточной для симуляции работы человеческого мозга в реальном времени. Но для Индии это не научная фантастика. Это прагматичный ответ на три года американских санкций, которые превратили GPU в стратегический товар.

Проект G42 и Cerebras выглядит как типичный инфраструктурный мегапроект: миллиарды долларов, обещания изменить ландшафт AI. Но если присмотреться - это история о том, как страна с 1.4 миллиардами человек и десятками местных языков пытается сохранить контроль над своим цифровым будущим. Когда Nvidia покупает будущее индийских стартапов, альтернативы становятся вопросом выживания.

8 экзафлопс - это примерно в 20 раз больше, чем самый мощный суперкомпьютер в мире на начало 2026 года. Для сравнения: вся вычислительная мощность Google за 2025 год оценивалась в 1.2 экзафлопса.

Wafer Scale Engine 3: монолит против армии чипов

Cerebras всегда играла против правил. Пока Nvidia и AMD штампуют миллионы маленьких GPU, они делают один огромный - размером с целую кремниевую пластину. WSE-3, представленный в 2025 году, содержит 4 триллиона транзисторов на площади 46225 мм². Это примерно в 56 раз больше, чем у флагманского GPU Nvidia H200.

Но что действительно меняет правила игры в контексте Sovereign AI - это не размер, а архитектура. WSE-3 спроектирован для обучения больших языковых моделей с минимальной задержкой между чипами. В традиционных кластерах из тысяч GPU 90% времени тренировки уходит на общение между картами. Cerebras решает эту проблему радикально: все ядра на пластине общаются со скоростью памяти, а не сети.

ПараметрCerebras WSE-3Типичный GPU-кластер
Площадь чипа46225 мм²800-1000 мм² (на GPU)
Транзисторы4 трлн80-100 млрд (на GPU)
Задержка связиНаносекундыМикросекунды
ЭнергоэффективностьДо 40% лучшеЗависит от сети

Для Индии эта архитектура - подарок судьбы. Страна строит инфраструктуру с нуля, без груза legacy-систем. Можно сразу внедрять радикальные решения, не пытаясь адаптировать старые подходы. Как показал наш разбор архитектуры WSE-3, монолитная плита выигрывает у армии маленьких чипов именно в задачах суверенного AI.

Почему Индии не подходят готовые модели?

Ответ лежит на поверхности: 22 официальных языка, сотни диалектов, уникальные культурные контексты. GPT-5 или Claude-4, какими бы продвинутыми они ни были, обучены на англоцентричных данных. Они плохо понимают хинди, тамильский, бенгали. Еще хуже - они не понимают индийский менталитет, местные реалии, культурные особенности.

Sarvam AI уже показала, что возможно. Их модели 30B и 105B параметров с поддержкой 128K контекста доказывают: индийские LLM не стесняются своих языков. Но Sarvam тренировала свои модели на арендованных мощностях AWS и Google Cloud. Каждый эксперимент утекал за границу в виде долларов и, что важнее, данных.

💡
По данным индийского правительства на февраль 2026, более 70% данных, генерируемых в Индии, обрабатываются за пределами страны. Проект Sovereign AI должен перевернуть эту статистику.

G42, эмиратская компания с тесными связями в Абу-Даби, приносит в проект не только деньги. Они приносят опыт работы в условиях геополитической турбулентности. После давления со стороны США в 2024-2025 годах, G42 научилась балансировать между технологическими экосистемами. Их партнерство с Cerebras - часть этой стратегии диверсификации.

8 экзафлопс - это сколько в реальных задачах?

Цифра впечатляет, но что она означает на практике? Разберем на примерах:

  • Обучение модели уровня GPT-5: существующие суперкомпьютеры тратят на это 3-4 месяца. Индийская система должна справиться за 2-3 недели.
  • Файн-тюнинг для 1000 индийских языков и диалектов: параллельное обучение тысяч специализированных моделей вместо последовательного.
  • Симуляция климата для предсказания муссонов: задача, критическая для сельского хозяйства Индии, требует экзафлопсных вычислений.
  • Скрининг лекарств для тропических болезней: виртуальные испытания миллионов молекул одновременно.

Но есть и темная сторона. История суверенных IT-проектов пестрит примерами провалов. 8 экзафлопс - это не только железо. Это тысячи инженеров, которые понимают, как с этим железом работать. Это софт, который не ломается при масштабировании. Это системы охлаждения, которые потребляют гигаватты энергии в стране, где перебои с электриком - обычное дело.

По оценкам экспертов, только на охлаждение 8 экзафлопс потребуется около 120-150 мегаватт. Это мощность небольшого города. Индия уже испытывает дефицит энергии - сможет ли она позволить себе такие проекты без ущерба для населения?

Гонка против времени и OpenAI

Пока Индия строит свою инфраструктуру, OpenAI активно расширяется в стране. Их планы по развертыванию 1 гигаватта вычислительной мощности к 2027 году - прямая угроза суверенным амбициям. Корпорации готовы платить за доступ к GPT-6 (или какой версии они там выпустят к тому времени), а не инвестировать в местные альтернативы.

Парадокс в том, что для обучения собственных моделей Индии нужны данные. Много данных. Но если все крупные компании уже используют ChatGPT для бизнес-процессов, откуда взять «чистые» индийские данные? Это классическая проблема курицы и яйца: без данных нет хороших моделей, без хороших моделей компании не откажутся от иностранных решений.

Решение, которое предлагает проект G42-Cerebras - создание «песочницы» для индийских разработчиков. Доступ к экзафлопсным мощностям по субсидированным ценам. Обучение на индийских данных с гарантией, что эти данные никогда не покинут страну. Это попытка создать экосистему, а не просто построить суперкомпьютер.

Что будет, если это сработает?

Представьте мир 2028 года. Индия имеет:

  1. Семейство LLM, оптимизированных под 22 официальных языка, с пониманием местного контекста
  2. Систему здравоохранения, где AI диагностирует болезни по симптомам, описанным на тамильском или телугу
  3. Образовательные платформы, которые адаптируются не только к языку, но и к культурным особенностям регионов
  4. Правительственные сервисы, которые действительно понимают запросы граждан

Но есть и риски. Суверенный AI может превратиться в инструмент контроля. Модели, обученные только на «одобренных» данных. Цензура, замаскированная под «культурную адаптацию». Технологический национализм, который изолирует Индию от глобальных инноваций.

Проект стоимостью в миллиарды долларов - это не только про технологии. Это политическое заявление. Индия говорит: мы больше не хотим быть digital colony Запада или Китая. Мы построим свою цифровую империю. На своих условиях. Своими руками.

Остался только один вопрос: хватит ли у Индии не только денег на железо, но и терпения на создание экосистемы? Потому что как показывает опыт Neysa и Blackstone, построить альтернативу AWS - это одно. Заставить разработчиков ей пользоваться - совсем другое.

8 экзафлопс - это много. Но иногда самая сложная часть - не построить суперкомпьютер, а заставить его решать правильные задачи. Индия сейчас делает ставку на то, что контроль важнее удобства. История покажет, был ли этот выбор правильным.