Эпизодическая память в Amazon Bedrock AgentCore: как агенты учатся на опыте | 21.01.2026 | AiManual
AiManual Logo Ai / Manual.
21 Янв 2026 Новости

Эпизодическая память в Amazon Bedrock AgentCore: агенты, которые не забывают диалог через пять минут

AWS анонсировала эпизодическую память для AgentCore. Читайте, как агенты теперь запоминают контекст и учатся на прошлых взаимодействиях без постоянного переобуч

Забудьте про агентов-золушек. В AgentCore появилась память

До сегодняшнего дня разговор с большинством AI-агентов напоминал общение с персонажем из фильма «Помни». Каждая сессия – чистый лист. Вы вчера три часа объясняли агенту архитектуру своего проекта, а сегодня он спрашивает: «А что такое микросервисы?».

21 января 2026 года AWS тихо, но уверенно положила этому конец. В Amazon Bedrock AgentCore, платформе для создания продакшен-агентов, появилась нативная поддержка эпизодической памяти (Episodic Memory). Не тот RAG, что лезет в векторную базу за документами, а именно память о диалогах, действиях и результатах. Агент теперь может вспомнить, что вы предпочитаете получать отчеты в виде таблицы, а не текста, или что в прошлый раз скрипт деплоя упал из-за ошибки в третьей строке.

Эпизодическая память в AgentCore – это не просто кэш. Это структурированное хранилище контекстных «снимков» (snapshots) сессий, которое агент может запрашивать и использовать для принятия решений в новых, но похожих ситуациях.

Как это работает? Секрет в архитектуре State Manager

В основе лежит обновленный State Manager в AgentCore версии 2.1 (актуально на 21.01.2026). Раньше состояние агента жило ровно до таймаута сессии. Теперь State Manager автоматически классифицирует ключевые моменты диалога – успешные выполнения задач, ошибки, предпочтения пользователя – и сохраняет их в отдельном слое долговременной памяти.

Это не просто дамп логов. Система использует встроенные возможности последних моделей семейства Claude 3.5 Sonnet (доступных в Bedrock) для семантического сжатия и выделения сути. Например, если агент успешно настроил CI/CD пайплайн через GitHub Actions, в память запишется не 200 строк лога, а структурированный факт: «Пользователь X успешно развернул агента с использованием workflow из репозитория Y, ключевые параметры: Z». В следующий раз, когда пользователь попросит «сделай как в прошлый раз», агент достанет этот паттерн и адаптирует его.

💡
Память в AgentCore реализована как отдельный микросервис, что позволяет масштабировать её независимо от ядра агента и применять политики хранения (например, удалять старые эпизоды через 30 дней).

Чем это лучше старого доброго RAG?

RAG (Retrieval-Augmented Generation) – это про знания из документов. Эпизодическая память – про личный опыт агента. Это критическое различие.

  • RAG отвечает на вопрос: «Что сказано в инструкции по деплою?»
  • Эпизодическая память отвечает на вопрос: «Как я в прошлый раз успешно деплоил для этого конкретного пользователя, и с какими ошибками столкнулся?»

По сути, AgentCore теперь закрывает проблему, о которой мы писали в статье про состояние памяти агента. Агент перестает быть статичным исполнителем и становится адаптивной системой. Он учится не через тонны размеченных данных, а через взаимодействие. Звучит как обещание из футуристичного блога 2023 года, но теперь это работает в консоли AWS.

Важный нюанс: память по умолчанию изолирована в пределах одного агента и его алиаса (alias). Чтобы передать «опыт» между продакшен-версией и staging-агентом, нужно явно экспортировать и импортировать эпизоды. AWS пока не решается на полную синхронизацию, видимо, опасаясь непредсказуемого переноса контекста.

Что это меняет для разработчиков?

Во-первых, отпадает нужда в костылях. Раньше, чтобы агент помнил контекст, приходилось городить внешние базы данных, как описано в обзоре систем долговременной памяти для LLM. Теперь это встроенная функция.

Во-вторых, меняется дизайн агентов. Вместо того чтобы пихать все в промпт, можно рассчитывать на то, что агент сам вспомнит релевантный опыт. Это напрямую связано с принципами, изложенными в руководстве по проектированию современных AI-агентов. Планировщик (planner) теперь может запрашивать у модуля памяти: «А мы уже решали подобную задачу?»

В-третьих, появляются новые точки контроля. В мониторинге AgentCore можно смотреть, какие эпизоды памяти были загружены для текущего запроса. Это прозрачность, которой часто не хватает в черном ящике LLM.

Но не все так гладко. Подводные камни

Память – это не только панацея, но и новый вектор для ошибок. Что, если агент запомнит ошибочный паттерн? Или конфиденциальные данные из одной сессии просочатся в другую? AWS дает инструменты для управления: ручная очистка эпизодов, тегирование, настройка чувствительности. Но ответственность за настройку политик лежит на разработчике.

Еще один момент – стоимость. Хранение и обработка эпизодов – это дополнительные запросы к LLM для сжатия и извлечения. В больших масштабах счет может удивить. Нужно тщательно настраивать, что именно достойно попадания в долговременную память, а что можно забыть.

Куда это ведет? Прогноз от 21.01.2026

Эпизодическая память в AgentCore – это первый шаг к настоящим автономным агентам. Следующий логичный этап – появление «мыслительных» циклов, где агент будет анализировать собственные воспоминания, чтобы планировать действия, как описано в концепции Agent Skills.

Мой совет: не бросайтесь сразу включать память на всех продакшен-агентах. Начните с staging-окружения. Поставьте эксперимент: создайте агента для автоматизации рутинных задач, например, для того же CI/CD деплоя через GitHub Actions. Дайте ему поработать неделю, а затем проверьте, стал ли он эффективнее благодаря памяти. Скорее всего, да.

А главное – следите за тем, что он запоминает. Потому что через год ваш AI-агент может знать о ваших рабочих привычках больше, чем вы сами. И это либо страшно, либо невероятно удобно. Скорее, и то, и другое.