Google DeepMind снова выкатила нечто, от чего у инженеров подгорает — но на этот раз не от страха, а от восторга. 7 мая 2026 года команда опубликовала подробности AlphaEvolve: AI-агента, который сам лезет в ядро TPU, перелопачивает планировщик запросов Spanner и ускоряет обучение трансформеров без единой строчки человеческого кода. Цифры там, прямо скажем, не для слабонервных.
Снижение write amplification на 20% в глобальной базе Google Spanner. Уменьшение storage footprint на 9%. Компилятор для TPU, который находит оптимизации, недоступные даже инженерам из команды XLA. И самое сочное — обучение коммерческого трансформера Klarna ускорилось в 2 раза. Это не бенчмарк на игрушечной задаче, это продакшен-инфраструктура Google, работающая 24/7.
Давайте разберемся, как устроен этот зверь, почему он не просто очередной «AI-помощник», и что это значит для всех, кто строит большие системы.
Не человек, а эволюционирующий компилятор
AlphaEvolve — это не LLM, которую натренировали на GitHub. Это агент, построенный на базе Gemini 3 с дообучением на задачу оптимизации вычислительных пайплайнов. Его архитектура завязана на три ключевых компонента:
- Обёртка над XLA — AlphaEvolve анализирует HLO-графы (промежуточное представление XLA) и генерирует альтернативные раскладки операций, которые тестирует через симулятор TPU.
- Эволюционный движок — вместо градиентного спуска агент использует генетические алгоритмы с мутациями и кроссовером для поиска конфигураций (порядок операций, использование памяти, распараллеливание).
- Обратная связь от реальной инфраструктуры — лучшие кандидаты прогоняются на теневом трафике Google Cloud, и только потом попадают в продакшен.
Инсайдеры из Gemini 3 Deep Think подмечают: AlphaEvolve использует ту же технику «рассуждения с backtracking», позволяющую агенту откатывать неудачные мутации и осмысленно запоминать, что сработало.
Как AI-агент выиграл битву с write amplification
Google Spanner — это не просто база данных. Это глобально распределённая SQL-база, от которой зависит почти вся внутренняя инфраструктура Google: от поиска до YouTube. Write amplification — когда каждая запись плодит кучу фоновых операций (репликация, сжатие, compaction) — была хронической головной болью инженеров.
AlphaEvolve предложил неочевидную оптимизацию: динамически менять порядок и глубину compaction-кепов на конкретных узлах, подстраиваясь под профиль нагрузки. Раньше это делалось статическими правилами, написанными людьми. Агент перебрал сотни тысяч конфигураций и нашёл те, что дают 20% снижения write amplification при том же уровне надёжности. Storage footprint сократился на 9% — сотни петабайтов сэкономленного дискового пространства.
Кстати, все эти результаты воспроизводимы: DeepMind выложил датасет с конфигурациями и логи. Но только при условии, что у вас есть доступ к кластеру Spanner — а он у вас вряд ли есть. Ирония судьбы.
Klarna: трансформер, который обучали в два раза быстрее
Klarna — финтех-гигант, который в 2024–2025 годах активно внедрял AI для обработки платежей и рекомендаций. Их внутренняя команда тренировала кастомный трансформер для предсказания кредитного риска. Сеть была средней руки — около 1.2 млрд параметров, — но обучение на гибридных данных (транзакции + текст) упиралось в бутылочное горлышко TPU-матричных операций.
AlphaEvolve взял готовый код обучения (PyTorch + XLA) и переписал часть pass-ов компилятора: перегруппировал операции einsum, изменил layout memory и подобрал оптимальную batch size под конкретный профиль нагрузки TPU 8t (тех самых чипов, про которые мы писали). Результат — ускорение в 2 раза без потери качества. Klarna почесал затылок и просто сократил время обучения с 3 недель до 10 дней.
Кстати, для тех, кто хочет поэкспериментировать с ускорением моделей, но не имеет доступа к TPU-ферме: на рынке есть доступные решения-шлюзы вроде AITunnel, которые дают единый API к Gemini, Claude и другим моделям — часто с неожиданно низкой задержкой. Но вернёмся к AlphaEvolve.
Коммерческий эффект: сколько сэкономили в Google
Точные цифры внутренней экономии DeepMind не раскрывает, но на основе представленных данных можно сделать грубую прикидку. Если предположить, что Spanner обрабатывает порядка 10^9 запросов в сутки, 20% снижения write amplification — это экономия сотен тысяч долларов на операциях ввода-вывода. Storage footprint на 9% меньше — миллионы долларов на дисках. Ускорение обучения моделей вроде Klarna — ещё один миллион сэкономленного времени GPU/TPU.
Но важнее другое: AlphaEvolve — первый подтверждённый случай, когда AI-агент не просто советует, а сам вносит изменения в инфраструктурный код и эти изменения принимаются в продакшен без человеческого пересмотра. Для мира скептиков, которые всё ещё спорят, «стоит ли доверять коду от нейросеток», это мощный сигнал.
Что делать инженеру в эпоху AlphaEvolve
Да, звучит угрожающе: агент учится быстрее, чем вы, и находит оптимизации, которые вам не снились. Но есть нюанс. AlphaEvolve работает только в одной области — детерминированные вычислительные пайплайны с чёткими метриками (latency, throughput, memory). Он беспомощен в том, что требует понимания бизнес-контекста или креативного рефакторинга. Компиляторные оптимизации, compaction в базах, порядок матричных умножений — это его зона. Абсолютно.
Поэтому стратегия выживания для инженера: уходить в те задачи, где требуется не поиск по пространству параметров, а понимание «зачем». Например, дизайн архитектуры новой модели или интеграция Deep Research агентов в бизнес-процессы — тут AlphaEvolve бесполезен.
И ещё: не игнорируйте эволюционные методы. GEPA optimize_anything уже показал, что байесовская оптимизация для промптов работает. AlphaEvolve просто поднял ставки — теперь оптимизация не метафор, а железа.
Прогноз? Через год у каждого крупного облачного провайдера будет свой AlphaEvolve. AWS уже тихо делает что-то подобное (судя по утечкам). И если вы до сих пор вручную тюните batch size, готовьтесь — вас заменят не гуманоиды, а мутирующий HLO-граф.