AlphaEvolve: как ИИ от DeepMind оптимизирует TPU, Spanner и коммерческие модели | AiManual
AiManual Logo Ai / Manual.
07 Май 2026 Новости

AlphaEvolve: Google DeepMind научил ИИ-агента чинить TPU, Spanner и ускорять Klarna в 2 раза. Без хайпа.

Разбор кейсов AlphaEvolve: снижение write amplification в Spanner на 20%, ускорение обучения трансформера Klarna в 2 раза, оптимизация компилятора TPU. Реальные

Google DeepMind снова выкатила нечто, от чего у инженеров подгорает — но на этот раз не от страха, а от восторга. 7 мая 2026 года команда опубликовала подробности AlphaEvolve: AI-агента, который сам лезет в ядро TPU, перелопачивает планировщик запросов Spanner и ускоряет обучение трансформеров без единой строчки человеческого кода. Цифры там, прямо скажем, не для слабонервных.

Снижение write amplification на 20% в глобальной базе Google Spanner. Уменьшение storage footprint на 9%. Компилятор для TPU, который находит оптимизации, недоступные даже инженерам из команды XLA. И самое сочное — обучение коммерческого трансформера Klarna ускорилось в 2 раза. Это не бенчмарк на игрушечной задаче, это продакшен-инфраструктура Google, работающая 24/7.

Давайте разберемся, как устроен этот зверь, почему он не просто очередной «AI-помощник», и что это значит для всех, кто строит большие системы.

Не человек, а эволюционирующий компилятор

AlphaEvolve — это не LLM, которую натренировали на GitHub. Это агент, построенный на базе Gemini 3 с дообучением на задачу оптимизации вычислительных пайплайнов. Его архитектура завязана на три ключевых компонента:

  • Обёртка над XLA — AlphaEvolve анализирует HLO-графы (промежуточное представление XLA) и генерирует альтернативные раскладки операций, которые тестирует через симулятор TPU.
  • Эволюционный движок — вместо градиентного спуска агент использует генетические алгоритмы с мутациями и кроссовером для поиска конфигураций (порядок операций, использование памяти, распараллеливание).
  • Обратная связь от реальной инфраструктуры — лучшие кандидаты прогоняются на теневом трафике Google Cloud, и только потом попадают в продакшен.

Инсайдеры из Gemini 3 Deep Think подмечают: AlphaEvolve использует ту же технику «рассуждения с backtracking», позволяющую агенту откатывать неудачные мутации и осмысленно запоминать, что сработало.

Как AI-агент выиграл битву с write amplification

Google Spanner — это не просто база данных. Это глобально распределённая SQL-база, от которой зависит почти вся внутренняя инфраструктура Google: от поиска до YouTube. Write amplification — когда каждая запись плодит кучу фоновых операций (репликация, сжатие, compaction) — была хронической головной болью инженеров.

AlphaEvolve предложил неочевидную оптимизацию: динамически менять порядок и глубину compaction-кепов на конкретных узлах, подстраиваясь под профиль нагрузки. Раньше это делалось статическими правилами, написанными людьми. Агент перебрал сотни тысяч конфигураций и нашёл те, что дают 20% снижения write amplification при том же уровне надёжности. Storage footprint сократился на 9% — сотни петабайтов сэкономленного дискового пространства.

Кстати, все эти результаты воспроизводимы: DeepMind выложил датасет с конфигурациями и логи. Но только при условии, что у вас есть доступ к кластеру Spanner — а он у вас вряд ли есть. Ирония судьбы.

Klarna: трансформер, который обучали в два раза быстрее

Klarna — финтех-гигант, который в 2024–2025 годах активно внедрял AI для обработки платежей и рекомендаций. Их внутренняя команда тренировала кастомный трансформер для предсказания кредитного риска. Сеть была средней руки — около 1.2 млрд параметров, — но обучение на гибридных данных (транзакции + текст) упиралось в бутылочное горлышко TPU-матричных операций.

AlphaEvolve взял готовый код обучения (PyTorch + XLA) и переписал часть pass-ов компилятора: перегруппировал операции einsum, изменил layout memory и подобрал оптимальную batch size под конкретный профиль нагрузки TPU 8t (тех самых чипов, про которые мы писали). Результат — ускорение в 2 раза без потери качества. Klarna почесал затылок и просто сократил время обучения с 3 недель до 10 дней.

Кстати, для тех, кто хочет поэкспериментировать с ускорением моделей, но не имеет доступа к TPU-ферме: на рынке есть доступные решения-шлюзы вроде AITunnel, которые дают единый API к Gemini, Claude и другим моделям — часто с неожиданно низкой задержкой. Но вернёмся к AlphaEvolve.

Коммерческий эффект: сколько сэкономили в Google

Точные цифры внутренней экономии DeepMind не раскрывает, но на основе представленных данных можно сделать грубую прикидку. Если предположить, что Spanner обрабатывает порядка 10^9 запросов в сутки, 20% снижения write amplification — это экономия сотен тысяч долларов на операциях ввода-вывода. Storage footprint на 9% меньше — миллионы долларов на дисках. Ускорение обучения моделей вроде Klarna — ещё один миллион сэкономленного времени GPU/TPU.

Но важнее другое: AlphaEvolve — первый подтверждённый случай, когда AI-агент не просто советует, а сам вносит изменения в инфраструктурный код и эти изменения принимаются в продакшен без человеческого пересмотра. Для мира скептиков, которые всё ещё спорят, «стоит ли доверять коду от нейросеток», это мощный сигнал.

Что делать инженеру в эпоху AlphaEvolve

Да, звучит угрожающе: агент учится быстрее, чем вы, и находит оптимизации, которые вам не снились. Но есть нюанс. AlphaEvolve работает только в одной области — детерминированные вычислительные пайплайны с чёткими метриками (latency, throughput, memory). Он беспомощен в том, что требует понимания бизнес-контекста или креативного рефакторинга. Компиляторные оптимизации, compaction в базах, порядок матричных умножений — это его зона. Абсолютно.

Поэтому стратегия выживания для инженера: уходить в те задачи, где требуется не поиск по пространству параметров, а понимание «зачем». Например, дизайн архитектуры новой модели или интеграция Deep Research агентов в бизнес-процессы — тут AlphaEvolve бесполезен.

И ещё: не игнорируйте эволюционные методы. GEPA optimize_anything уже показал, что байесовская оптимизация для промптов работает. AlphaEvolve просто поднял ставки — теперь оптимизация не метафор, а железа.

Прогноз? Через год у каждого крупного облачного провайдера будет свой AlphaEvolve. AWS уже тихо делает что-то подобное (судя по утечкам). И если вы до сих пор вручную тюните batch size, готовьтесь — вас заменят не гуманоиды, а мутирующий HLO-граф.

Подписаться на канал