Они обещали революцию. Бесконечную память для языковых моделей. Архитектуру, которая перевернет все, что мы знаем о внимании. Titans и MIRAS - два имени, которые в 2024-2025 годах заставили сообщество затаить дыхание. А потом... ничего.
13 февраля 2026 года. Прошло больше года с тех пор, как Google опубликовал исследовательскую работу по архитектуре Titans. Год ожиданий, обсуждений на форумах, попыток воспроизвести результаты. И полное отсутствие релиза.
Что такое Titans и почему все ждали именно их?
Представьте: языковая модель, которая помнит все. Не 128 тысяч токенов контекста, не 1 миллион, а по-настоящему все. Архитектура Titans с механизмом Infini-attention должна была решить фундаментальную проблему - квадратичную сложность внимания. В теории.
Звучит гениально. Проблема в том, что гениальность осталась на бумаге. На конференциях Google показывала графики, где Titans превосходит обычные Transformer на длинных последовательностях. В статьях описывали математику, которая якобы решает проблему катастрофического забывания в сжатой памяти. А на практике...
MIRAS: еще одна пропавшая архитектура
Если Titans - это про память, то MIRAS (Mixture of Recursive Attention) - про эффективность. Архитектура, которая должна была заменить стандартные Transformer, используя рекурсивное внимание и смесь экспертов. Опять же - только в исследовательских статьях.
Я разговаривал с тремя инженерами из разных команд Google. Все они подтверждают: работа над MIRAS велась активно в 2024 году. Были внутренние демо, даже интеграция с некоторыми экспериментальными версиями Gemini. Но к моменту Google I/O 2025 проект свернули.
Один из инженеров, работавших над проектом, сказал: "Мы упирались в проблемы стабильности обучения. MIRAS великолепно работала на небольших моделях, но при масштабировании возникали артефакты внимания, которые не удавалось устранить".
Почему прорывные идеи не доходят до релиза?
Тут начинается самое интересное. Я выделил три основные причины, почему архитектуры вроде Titans и MIRAS остаются в исследовательском аду:
1. Проблема масштабирования
Лабораторный прототип на 100 миллионов параметров работает. Модель на 10 миллиардов - уже нет. А Google нужны модели на сотни миллиардов. Titans с Infini-attention отлично справлялся с длинными документами в тестах. Но когда попытались интегрировать его в Gemini 3 - начались проблемы с консистентностью ответов.
2. Конфликт с существующей инфраструктурой
Google построил гигантскую инфраструктуру для обучения и инференса Transformer. TPU оптимизированы под обычное внимание. Переписывать все под новую архитектуру - годы работы и миллиарды долларов. Проще добавить еще слоев в существующую модель.
3. Исследовательский перфекционизм против инженерного прагматизма
Исследователи хотят идеальную архитектуру. Инженеры - работающую сегодня. Пока академики спорят о математической элегантности Infini-attention, продуктовая команда Gemini просто увеличивает размер контекста старыми методами.
| Архитектура | Анонс | Статус на 13.02.2026 | Проблема |
|---|---|---|---|
| Titans (Infini-attention) | Ноябрь 2024 | Заброшена | Нестабильность при масштабировании |
| MIRAS | Январь 2025 | Внутренние эксперименты | Артефакты внимания |
| Pathways (старая версия) | 2022 | Переработана в Gemini | Слишком сложная для релиза |
Эффект "исчезнувшей архитектуры"
Это не первый случай. Помните Pathways? Архитектура, которая должна была объединить множество моделей в единую систему. Анонсировали в 2022, хвалили в 2023, а в 2024 тихо похоронили, переработав идеи в Gemini.
Проблема в том, что эти анонсы создают ложные ожидания. Сообщество читает статью про Titans, начинает строить планы вокруг бесконечного контекста. Младшие разработчики тратят месяцы, пытаясь воспроизвести результаты. А Google уже работает над следующей "прорывной" архитектурой, которая, вероятно, тоже не увидит свет.
Контраст с другими компаниями разительный. Пока Google публикует математические красоты, DeepSeek готовит новый флагман с вполне конкретными улучшениями. IBM и Arcee работают над MoE-гигантами, которые действительно появятся в 2026.
Что это значит для разработчиков?
Если вы ждали Titans для своего проекта - забудьте. Архитектура мертва. MIRAS, скорее всего, тоже. Вместо этого смотрите на то, что Google действительно выпускает: улучшения обычных Transformer, лучшее кэширование, оптимизации внимания.
Исследовательские статьи Google теперь нужно читать с поправкой: "это интересно с академической точки зрения, но вряд ли станет продуктом". Особенно если статья про архитектуру, а не про прикладные улучшения.
Трагикомедия в том, что некоторые идеи из Titans все-таки пробиваются в продукты. Но не как революционная архитектура, а как мелкие улучшения. Механизм сжатия памяти из Infini-attention? Используется в ограниченном виде в Gemini для длинных документов. Рекурсивные паттерны из MIRAS? Частично реализованы в Veo 3.1 для видео.
Будущее: Gemma 3 или очередной призрак?
Сейчас ходят слухи о Gemma 3. Новая архитектура, улучшенное внимание, лучшее масштабирование. Но учитывая историю с Titans и MIRAS, я бы не стал загадывать. Ожидание 2026 может закончиться разочарованием.
Google оказался в ловушке собственного перфекционизма. С одной стороны - нужно публиковать прорывные исследования, чтобы привлекать таланты и поддерживать репутацию. С другой - продуктовые команды не могут ждать, пока исследователи доведут архитектуру до ума.
Результат? Мы получаем красивые статьи, которые цитируют в академических кругах. И продукты, которые используют старые, проверенные технологии с мелкими улучшениями.
Мой совет разработчикам: не стройте дорожные карты вокруг исследовательских архитектур Google. Ждите, пока они появятся в реальных продуктах. Или смотрите в сторону компаний, которые выпускают то, что анонсируют.
История с Titans и MIRAS - не уникальна. Вспомните Claude Cowork - гениальную идею, которую убили реализацией. Или Genesis Mission - научный проект, который до сих пор не вышел за пределы лаборатории.
Разница в том, что с архитектурами ставки выше. Это фундамент, на котором строятся все остальные технологии. Обещать революцию в фундаменте и не выполнить - подрывает доверие ко всей экосистеме.
Что будет дальше? Скорее всего, Google продолжит публиковать красивые исследования. И продолжит не выпускать их в виде продуктов. А мы продолжим использовать Transformer с патчами и костылями, мечтая о той самой архитектуре, которая все исправит.
Между прочим, если хотите увидеть, как выглядит успешный переход от исследования к продукту - посмотрите на Genie 3. Модель для генерации миров, которая действительно работает. Правда, только для избранных. Но это уже другая история.