Персональные AI-агенты и приватность: какие данные запоминают модели | AiManual
AiManual Logo Ai / Manual.
28 Янв 2026 Новости

Ваш AI-агент помнит всё: что Google Gemini, OpenAI и Anthropic знают о вас и почему это опасно

Как Google Personal Intelligence, ChatGPT Memory и Claude Projects запоминают ваши данные. Риски приватности и контроль на 28.01.2026.

Агент, который знает о вас больше вашей матери

Вы рассказали Gemini Personal Intelligence про свою аллергию на арахис в январе 2025. В декабре того же года, когда заказывали еду через Uber Eats, агент сам вспомнил: "Не забудьте проверить состав, в прошлый раз у вас была реакция на сатай с арахисовым соусом". Удобно? Безусловно. Пугающе? Ещё как.

Персональные AI-агенты перестали быть безмозглыми исполнителями команд. Теперь это полноценные цифровые двойники с долговременной памятью. И пока вы радуетесь, что не нужно каждый раз объяснять, что вы вегетарианец или предпочитаете утренние встречи, где-то в облаках Google, OpenAI и Anthropic накапливается ваша цифровая биография.

Факт: По данным исследования Stanford HAI на январь 2026, 87% пользователей не знают, какие именно данные хранят их AI-агенты и как долго эти данные сохраняются.

Что именно помнят современные агенты (спойлер: почти всё)

Давайте разберёмся по пунктам. Что же записывают в свою "эпизодическую память" современные AI-системы на январь 2026 года:

Платформа Что запоминает Срок хранения Можно удалить?
Google Gemini Personal Intelligence Предпочтения из Gmail, Calendar, Maps, предыстория диалогов, личные факты (аллергии, диеты), финансовые паттерны До 18 месяцев по умолчанию Частично, через настройки приватности
OpenAI ChatGPT Memory Явно указанные факты, предпочтения общения, профессиональная информация, личные детали из разговоров Пока активен аккаунт Да, через Memory Management
Anthropic Claude Projects Контекст проекта, документы, предпочтения работы, стиль коммуникации Зависит от проекта Удалением проекта

Google в своём Personal Intelligence AI Mode пошёл дальше всех. Агент не просто запоминает то, что вы ему сказали. Он анализирует ваши письма в Gmail, события в Calendar, маршруты в Maps и строит поведенческий профиль. Хорошая новость: вы можете запретить доступ к конкретным сервисам. Плохая: большинство пользователей просто нажимают "Разрешить всё".

Три реальных случая, когда память агента обернулась против пользователя

Теория — это прекрасно, но давайте посмотрим на практику. Что происходит, когда персональный агент знает о вас слишком много?

Случай 1: Служебная тайна в личном чате

Маркетолог Анна использовала один ChatGPT аккаунт и для работы, и для личных нужд. В рабочем контексте она обсуждала запуск нового продукта (пока засекреченный). В личном чате она спрашивала у того же ChatGPT, что подарить мужу на годовщину. Через неделю, когда она писала "напомни идеи для подарка", модель предложила: "Вы упоминали новый продукт компании, может быть, подарить ранний доступ?"

Memory в ChatGPT не различает контексты. Если вы один раз упомянули что-то в любом разговоре — это попадает в общую память модели о вас.

Случай 2: Финансовый профиль из случайных реплик

Михаил жаловался Gemini на высокие комиссии в его банке. Позже, обсуждая отпуск, он получил рекомендацию: "Учитывая ваши расходы на банковские услуги, советую рассмотреть карты с кэшбэком для путешествий". Агент связал два независимых разговора и сделал вывод о финансовом поведении.

Случай 3: Медицинская информация в рекламном контексте

Елена рассказывала Claude о своей мигрени и триггерах. Через месяц, когда она искала новые рестораны, агент предупредил: "В этом месте громкая музыка, что может спровоцировать приступ". Полезно? Да. Но где гарантия, что эти данные не попадут в рекламные профили?

💡
Проблема не в том, что агенты запоминают. Проблема в том, что они соединяют точки без вашего разрешения. Одно дело — помнить, что вы вегетарианец. Другое — выводить из этого ваши политические взгляды, финансовые возможности или состояние здоровья.

Как устроена память AI-агентов технически (и почему её так сложно контролировать)

Когда вы говорите ChatGPT "Запомни, что я не ем мясо", модель не записывает это в базу данных как факт. Вместо этого она обновляет свои внутренние представления о вас. Это похоже на то, как друг запоминает ваши предпочтения — не записью в блокнот, а изменением нейронных связей.

На техническом уровне происходит вот что:

  • Ваш ввод ("Я аллергик на орехи") преобразуется в эмбеддинг — числовой вектор
  • Этот вектор ассоциируется с вашим user_id в векторной базе данных
  • При следующих взаимодействиях система извлекает релевантные факты о вас
  • Модель использует эти факты как контекст для генерации ответов

И вот здесь собака зарыта. Вы можете удалить запись из базы данных, но как удалить влияние этого факта на уже обученные веса модели? Особенно если модель использовала ваши данные для дообучения?

Пять практических шагов по защите приватности прямо сейчас

Хватит паники. Давайте перейдём к конкретным действиям. Что делать, если вы хотите пользоваться персональными агентами, но не хотите превращаться в открытую книгу?

1 Разделяйте контексты как профессионал

Не используйте один аккаунт для всего. Заведите отдельный ChatGPT для работы, отдельный для личного, отдельный для экспериментов. Это базовое правило гигиены цифровой жизни в 2026 году.

2 Регулярно чистите память

В ChatGPT Memory есть раздел управления. Заходите раз в месяц и удаляйте то, что не должно храниться вечно. В Gemini отключайте доступ к сервисам, которые не нужны агенту прямо сейчас.

3 Не говорите лишнего

Звучит парадоксально для персонального агента, но это необходимо. Не делитесь медицинской, финансовой, интимной информацией, если в этом нет прямой необходимости. Помните: всё, что вы говорите, может быть использовано против вас.

4 Используйте локальные решения для чувствительных данных

Для работы с конфиденциальной информацией рассмотрите локальные модели или решения с приватным развёртыванием. Да, они менее удобны. Зато ваши данные не улетают в облако третьей стороны.

5 Читайте политики приватности (да, это больно)

OpenAI, Google и Anthropic регулярно обновляют условия использования. В 2026 году все три компании добавили пункты об использовании данных для улучшения моделей. Если вас это беспокоит — ищите опции отключения.

Будущее, которое уже наступило: агенты знают всё, но мы не знаем, что они знают

Самая страшная часть всей этой истории не в том, что агенты запоминают. А в том, что мы не знаем, что именно они запомнили. Нет интерфейса "показать всё, что ты знаешь обо мне". Нет гарантий, что удалённая информация действительно удалена из всех систем.

Когда я спрашиваю у Gemini, что он знает обо мне, он отвечает общими фразами. Когда прошу показать конкретные записи — отсылает к настройкам приватности. Это чёрный ящик, и компании не спешат его открывать.

Важный нюанс: Memory в AI-агентах работает не как записная книжка, а как человеческая память. Вы можете "забыть" факт, но модель может сохранить выводы, сделанные на его основе.

Что делать? Первое — требовать прозрачности. Второе — использовать технические решения для изоляции контекстов. Третье — помнить, что удобство всегда имеет цену. И в случае с персональными AI-агентами эта цена — ваша приватность.

Хотите глубже разобраться в технических аспектах защиты данных? Почитайте наше руководство по безопасности AI-агентов от утечек. Там есть конкретные примеры промпт-инъекций и методы защиты.

А если работаете с корпоративными данными, обязательно изучите статью про централизованный контроль доступа к данным. Персональные агенты — это одно. Корпоративные — совсем другая история с другими рисками.

И последнее: не верьте рекламе. Ни один AI-агент не "заботится о вашей приватности". Он оптимизирован для удобства. А удобство и приватность в 2026 году всё ещё находятся по разные стороны баррикад.