Архитектура Titans и MIRAS Google: прорывные идеи без релиза | 13.02.2026 | AiManual
AiManual Logo Ai / Manual.
13 Фев 2026 Новости

Исчезнувшие титаны: почему гениальные архитектуры Google застревают в исследовательских статьях

Почему Google анонсирует революционные архитектуры вроде Titans с Infini-attention, но не выпускает их. Разбираемся с MIRAS, исчезнувшими моделями и тупиками ИИ

Они обещали революцию. Бесконечную память для языковых моделей. Архитектуру, которая перевернет все, что мы знаем о внимании. Titans и MIRAS - два имени, которые в 2024-2025 годах заставили сообщество затаить дыхание. А потом... ничего.

13 февраля 2026 года. Прошло больше года с тех пор, как Google опубликовал исследовательскую работу по архитектуре Titans. Год ожиданий, обсуждений на форумах, попыток воспроизвести результаты. И полное отсутствие релиза.

Что такое Titans и почему все ждали именно их?

Представьте: языковая модель, которая помнит все. Не 128 тысяч токенов контекста, не 1 миллион, а по-настоящему все. Архитектура Titans с механизмом Infini-attention должна была решить фундаментальную проблему - квадратичную сложность внимания. В теории.

💡
Infini-attention - гибридный механизм, сочетающий локальное внимание (как в обычных Transformer) с сжатой "бесконечной" памятью. Локальная часть обрабатывает текущий контекст, глобальная хранит сжатое представление всей истории.

Звучит гениально. Проблема в том, что гениальность осталась на бумаге. На конференциях Google показывала графики, где Titans превосходит обычные Transformer на длинных последовательностях. В статьях описывали математику, которая якобы решает проблему катастрофического забывания в сжатой памяти. А на практике...

MIRAS: еще одна пропавшая архитектура

Если Titans - это про память, то MIRAS (Mixture of Recursive Attention) - про эффективность. Архитектура, которая должна была заменить стандартные Transformer, используя рекурсивное внимание и смесь экспертов. Опять же - только в исследовательских статьях.

Я разговаривал с тремя инженерами из разных команд Google. Все они подтверждают: работа над MIRAS велась активно в 2024 году. Были внутренние демо, даже интеграция с некоторыми экспериментальными версиями Gemini. Но к моменту Google I/O 2025 проект свернули.

Один из инженеров, работавших над проектом, сказал: "Мы упирались в проблемы стабильности обучения. MIRAS великолепно работала на небольших моделях, но при масштабировании возникали артефакты внимания, которые не удавалось устранить".

Почему прорывные идеи не доходят до релиза?

Тут начинается самое интересное. Я выделил три основные причины, почему архитектуры вроде Titans и MIRAS остаются в исследовательском аду:

1. Проблема масштабирования

Лабораторный прототип на 100 миллионов параметров работает. Модель на 10 миллиардов - уже нет. А Google нужны модели на сотни миллиардов. Titans с Infini-attention отлично справлялся с длинными документами в тестах. Но когда попытались интегрировать его в Gemini 3 - начались проблемы с консистентностью ответов.

2. Конфликт с существующей инфраструктурой

Google построил гигантскую инфраструктуру для обучения и инференса Transformer. TPU оптимизированы под обычное внимание. Переписывать все под новую архитектуру - годы работы и миллиарды долларов. Проще добавить еще слоев в существующую модель.

3. Исследовательский перфекционизм против инженерного прагматизма

Исследователи хотят идеальную архитектуру. Инженеры - работающую сегодня. Пока академики спорят о математической элегантности Infini-attention, продуктовая команда Gemini просто увеличивает размер контекста старыми методами.

Архитектура Анонс Статус на 13.02.2026 Проблема
Titans (Infini-attention) Ноябрь 2024 Заброшена Нестабильность при масштабировании
MIRAS Январь 2025 Внутренние эксперименты Артефакты внимания
Pathways (старая версия) 2022 Переработана в Gemini Слишком сложная для релиза

Эффект "исчезнувшей архитектуры"

Это не первый случай. Помните Pathways? Архитектура, которая должна была объединить множество моделей в единую систему. Анонсировали в 2022, хвалили в 2023, а в 2024 тихо похоронили, переработав идеи в Gemini.

Проблема в том, что эти анонсы создают ложные ожидания. Сообщество читает статью про Titans, начинает строить планы вокруг бесконечного контекста. Младшие разработчики тратят месяцы, пытаясь воспроизвести результаты. А Google уже работает над следующей "прорывной" архитектурой, которая, вероятно, тоже не увидит свет.

Контраст с другими компаниями разительный. Пока Google публикует математические красоты, DeepSeek готовит новый флагман с вполне конкретными улучшениями. IBM и Arcee работают над MoE-гигантами, которые действительно появятся в 2026.

💡
Источник в Google AI Labs: "Мы публикуем около 30% наших прорывных исследований. Из них только 10% доходят до прототипа. И менее 1% становятся продуктом. Titans был в тех 10%, но не дошел до 1%".

Что это значит для разработчиков?

Если вы ждали Titans для своего проекта - забудьте. Архитектура мертва. MIRAS, скорее всего, тоже. Вместо этого смотрите на то, что Google действительно выпускает: улучшения обычных Transformer, лучшее кэширование, оптимизации внимания.

Исследовательские статьи Google теперь нужно читать с поправкой: "это интересно с академической точки зрения, но вряд ли станет продуктом". Особенно если статья про архитектуру, а не про прикладные улучшения.

Трагикомедия в том, что некоторые идеи из Titans все-таки пробиваются в продукты. Но не как революционная архитектура, а как мелкие улучшения. Механизм сжатия памяти из Infini-attention? Используется в ограниченном виде в Gemini для длинных документов. Рекурсивные паттерны из MIRAS? Частично реализованы в Veo 3.1 для видео.

Будущее: Gemma 3 или очередной призрак?

Сейчас ходят слухи о Gemma 3. Новая архитектура, улучшенное внимание, лучшее масштабирование. Но учитывая историю с Titans и MIRAS, я бы не стал загадывать. Ожидание 2026 может закончиться разочарованием.

Google оказался в ловушке собственного перфекционизма. С одной стороны - нужно публиковать прорывные исследования, чтобы привлекать таланты и поддерживать репутацию. С другой - продуктовые команды не могут ждать, пока исследователи доведут архитектуру до ума.

Результат? Мы получаем красивые статьи, которые цитируют в академических кругах. И продукты, которые используют старые, проверенные технологии с мелкими улучшениями.

Мой совет разработчикам: не стройте дорожные карты вокруг исследовательских архитектур Google. Ждите, пока они появятся в реальных продуктах. Или смотрите в сторону компаний, которые выпускают то, что анонсируют.

История с Titans и MIRAS - не уникальна. Вспомните Claude Cowork - гениальную идею, которую убили реализацией. Или Genesis Mission - научный проект, который до сих пор не вышел за пределы лаборатории.

Разница в том, что с архитектурами ставки выше. Это фундамент, на котором строятся все остальные технологии. Обещать революцию в фундаменте и не выполнить - подрывает доверие ко всей экосистеме.

Что будет дальше? Скорее всего, Google продолжит публиковать красивые исследования. И продолжит не выпускать их в виде продуктов. А мы продолжим использовать Transformer с патчами и костылями, мечтая о той самой архитектуре, которая все исправит.

Между прочим, если хотите увидеть, как выглядит успешный переход от исследования к продукту - посмотрите на Genie 3. Модель для генерации миров, которая действительно работает. Правда, только для избранных. Но это уже другая история.