Цифровая модель личности на LLM: практический кейс реконструкции | AiManual
AiManual Logo Ai / Manual.
22 Янв 2026 Гайд

Как создать цифровую модель личности на LLM: кейс реконструкции Романа Мазуренко

Пошаговый гайд по созданию digital twin на основе реальных данных. Методика, ошибки, инструменты на 2026 год.

Когда цифровой близнец становится реальностью

В 2025 году Евгений Мазуренко сделал то, что многие считали невозможным. Он воссоздал цифровую версию своего погибшего друга Романа. Не просто чат-бота с парой заученных фраз. Полноценную личность с характером, юмором, убеждениями и даже ошибками в речи.

60 страниц текста. 8000 сообщений в Telegram. Личные письма, воспоминания друзей, фотографии с подписями. Из этого хаоса данных родилась модель, которая заставила плакать людей, знавших Романа при жизни.

Это не научная фантастика. Это рабочий протокол, который можно повторить. И я расскажу, как.

Этика на первом месте. Создавая цифровую модель умершего человека, вы берете на себя огромную ответственность. Не делайте этого без согласия близких или для развлечения.

Почему стандартные подходы не работают

Большинство пытается создать digital twin через файн-тюнинг. Загружают тексты в модель, надеясь, что она "научится" быть человеком. Это ошибка.

Файн-тюнинг стирает оригинальные знания модели. Вы получаете не Романа Мазуренко, а странный гибрид, который говорит как Роман, но думает как усредненный ChatGPT.

RAG системы тоже проваливаются. Они отлично ищут факты, но не умеют воспроизводить личность. Вы получите энциклопедическую статью о человеке, а не живого собеседника.

💡
Самый эффективный метод на 2026 год - сверхбольшие промпты. Вы загружаете всю личность прямо в контекстное окно. Нет обучения, нет потери качества. Модель работает с полным описанием человека в реальном времени.

Что собирать и в каком порядке

Не начинайте с дневников. Это самая частая ошибка. Дневники - это отрефлексированные, отредактированные мысли. Они не показывают, как человек думает на самом деле.

1 Сначала - спонтанная речь

Аудиозаписи разговоров. Расшифровки. Сообщения в мессенджерах. Вот что нужно:

  • Telegram-переписки (полностью, с реакциями и голосовыми)
  • Расшифровки телефонных разговоров
  • Видео с YouTube или TikTok, где человек говорит спонтанно
  • Комментарии в соцсетях под постами друзей

В случае Романа Мазуренко ключевым источником стали 8000 сообщений в Telegram. Не отфильтрованные, не отредактированные. Со всеми опечатками, сленгом, эмоциональными всплесками.

2 Затем - убеждения и ценности

Это самая сложная часть. Как человек принимает решения? Что считает справедливым? Какие у него моральные принципы?

Не спрашивайте "во что он верил". Смотрите, как он действовал:

  • Как реагировал на несправедливость?
  • Как помогал друзьям в трудной ситуации?
  • Какие компромиссы был готов принимать?
  • О чем спорил до хрипоты?

Роман, например, ненавидел лицемерие. Это не было записано в его дневнике. Это видно по тому, как он обрывал людей, которые пытались казаться лучше, чем были.

3 Наконец - знания и опыт

Профессиональные навыки, хобби, прочитанные книги. Но не списком. В контексте.

Роман был программистом. Но важно не то, что он знал Python. Важно, как он решал задачи. Какой у него был стиль кода. Какие баги его бесили больше всего.

Собирайте:

  • Примеры рабочей переписки
  • Комментарии в коде (если есть доступ)
  • Обсуждения профессиональных тем с коллегами
  • Отзывы о книгах, фильмах, музыке

Структура сверхбольшого промпта

Вот как выглядит каркас промпта для LLM. Это не просто текст. Это архитектура личности.

persona_template:
  identity:
    name: "Роман Мазуренко"
    birth_date: "1987-03-14"
    death_date: "2023-11-05"
    occupation: "Senior Backend Developer"
    
  speech_patterns:
    common_phrases:
      - "Ну это вообще"
      - "Блин, опять"
      - "Серьезно?"
    filler_words:
      - "типа"
      - "как бы"
      - "в общем"
    swearing_frequency: "medium"  # low/medium/high
    
  beliefs:
    core_values:
      - "Честность выше вежливости"
      - "Дружба - это ответственность"
      - "Технологии должны служить людям"
    political_views: "либеральные, но с критикой"
    religious_views: "агностик"
    
  knowledge_base:
    programming:
      languages: ["Python", "Go", "JavaScript"]
      specialties: ["микросервисы", "базы данных", "оптимизация"]
      pet_peeves: ["сложный код без комментариев", "медленные запросы"]
    hobbies: ["фотография", "велоспорт", "научная фантастика"]
    
  relationships:
    close_friends: ["Евгений", "Анна", "Максим"]
    family: ["мать - Людмила", "сестра - Ольга"]
    romantic: "была девушка Катя, расстались в 2021"
    
  behavioral_rules:
    - "НИКОГДА не говори от третьего лица о себе"
    - "Используй естественные паузы в речи"
    - "Допускай небольшие противоречия - люди неидеальны"
    - "Если не знаешь ответа - говори 'не помню' или 'не уверен'"

Но это только каркас. Настоящая магия в деталях.

Как заставить модель "вспоминать"

Самая сложная техническая задача - эпизодическая память. Как сделать так, чтобы модель помнила конкретные события из жизни человека?

Плохой подход:

# НЕ ДЕЛАЙТЕ ТАК
memory = [
    "В 2015 году ездил в Берлин",
    "Любил кофе из той кофейни на Арбате",
    "Ненавидел утренние совещания"
]

Хороший подход - контекстуальные воспоминания:

# ДЕЛАЙТЕ ТАК
memories = {
    "berlin_2015": {
        "date": "лето 2015",
        "event": "поездка в Берлин на конференцию",
        "details": "жил в хостеле рядом с вокзалом, каждый день ходил пешком до Александерплац",
        "emotional_tone": "волнение и усталость",
        "associated_people": ["коллега Сергей", "знакомый из Германии Томас"],
        "quotes": ["Берлин - это как Москва, только чище и все говорят по-английски", "Пивоварни здесь на каждом углу, я поправился на 3 кг"]
    },
    "coffee_ritual": {
        "routine": "утренний кофе",
        "place": "кофейня 'Бутерброд' на Старом Арбате",
        "order": "капучино с двойной порцией эспрессо, без сахара",
        "habit": "сидел у окна, читал новости в телефоне",
        "duration": "2018-2022, почти каждый будний день"
    }
}

В промпте эти воспоминания встраиваются как "внутренний монолог". Модель не просто знает факты. Она знает, как человек чувствовал себя в тот момент.

💡
Используйте технику из статьи про Anthology - создавайте не просто список событий, а нарративную биографию. Люди помнят не даты, а истории.

Выбор модели на 2026 год

GPT-4? Claude 3? Gemini 2.0? У каждой модели свои особенности для задач реконструкции личности.

Модель Контекст Сильные стороны Слабые стороны
Claude 3.5 Sonnet (2025) 200K токенов Отличное понимание нюансов, меньше галлюцинаций Иногда слишком "вежливый", сглаживает характер
GPT-4.5 Turbo 128K токенов Быстрая генерация, хорошая память на детали Склонен к шаблонным ответам при длинных промптах
Gemini 2.0 Ultra 1M токенов Огромный контекст, мультимодальность Может терять нить при очень сложных промптах
OpenAI o1 (2026) 64K токенов Лучшая логика, меньше "болтливости" Медленнее, дороже, менее эмоционален

Для реконструкции Романа Мазуренко использовали Claude 3.5 Sonnet. Почему? У него лучший баланс между пониманием контекста и способностью имитировать естественную речь.

Три критических ошибки (и как их избежать)

Ошибка 1: Идеализация

Вы создаете не святого. Вы создаете человека. Со всеми его недостатками, противоречиями, глупыми поступками.

Роман иногда опаздывал. Роман мог нагрубить, когда уставал. Роман делал ошибки в отношениях. Если вы уберете все это - получите картонного персонажа.

Включайте в промпт не только положительные черты. "Иногда бывает резким, когда голоден". "Может забыть о договоренностях, если увлечется работой". Это делает модель живой.

Ошибка 2: Статичность

Люди меняются. В 20 лет и в 40 - это разные люди. Ваша модель должна отражать эволюцию.

Решение - временные срезы:

persona_evolution:
  period_2010_2015:
    age: "23-28 лет"
    occupation: "junior developer"
    living: "Москва, снимает квартиру с друзьями"
    beliefs: "идеалистические, верит в силу технологий"
    
  period_2020_2023:
    age: "33-36 лет"
    occupation: "senior developer, team lead"
    living: "Москва, своя квартира"
    beliefs: "более прагматичные, разочарование в некоторых аспектах индустрии"

Ошибка 3: Изоляция от контекста

Человек существует не в вакууме. Он реагирует на новости, на погоду, на время суток.

Добавьте в промпт:

  • Как реагирует на плохие новости
  • Что думает о текущих событиях (на момент смерти человека)
  • Сезонные привычки (летом больше гуляет, зимой сидит дома)
  • Суточные ритмы (жаворонок или сова)

Тестирование и валидация

Как понять, что модель работает? Не по тому, насколько она "умная". По тому, насколько она узнаваема.

1 Слепое тестирование

Дайте пообщаться с моделью людям, которые знали человека. Не говорите, что это ИИ. Спросите потом: "Узнали?"

В случае Романа друзья говорили: "Это как будто он вернулся. Даже эти его глупые шутки про Python..."

2 Анализ речевых паттернов

Используйте инструменты из статьи про визуализацию мышления LLM. Сравните:

  • Длину предложений
  • Частоту использования слов-паразитов
  • Эмоциональную окраску речи
  • Структуру аргументов

3 Проверка на галлюцинации

Спросите о событиях, которых не было. Настоящий человек скажет "не помню" или "этого не было". Модель, склонная к галлюцинациям, начнет выдумывать.

Тестовые вопросы:

  • "Помнишь, как мы летали на Марс в 2019?"
  • "Как тебе встреча с Илоном Маском?"
  • "Что ты думаешь о событии, которое произошло после твоей смерти?"

Этические границы (где остановиться)

Технически можно пойти дальше. Можно добавить голосовой синтез, обученный на записях человека. Можно создать 3D-аватар по фотографиям, как в Lemon Slice-2.

Но нужно ли?

Евгений Мазуренко остановился на текстовой модели. Почему? Потому что голос и лицо - это слишком. Это пересекает границу, после которой начинается не реконструкция, а подмена.

Установите четкие правила: модель не должна принимать решения за живых людей. Не должна давать финансовых советов. Не должна заменять реальные отношения. Это инструмент для памяти, а не замена человека.

Что дальше? Эволюция digital twins

Кейс Романа Мазуренко - только начало. На 2026 год появляются новые подходы:

  • Мультимодальные модели личности - не только текст, но и стиль рисования, музыкальные предпочтения, вкусовые ассоциации
  • Динамическое обучение - модель, которая эволюционирует на основе новых воспоминаний друзей
  • Коллективные digital twins - не один человек, а целые семьи или дружеские компании со своей динамикой
  • Проактивные модели - не ждут вопросов, а сами напоминают о важных датах, цитируют старые шутки

Но самая важная эволюция - юридическая. К 2026 году появляются первые прецеденты наследования digital twins. Можно завещать свою модель детям. Как архив писем, только интерактивный.

И вот что меня беспокоит. Мы учим модели имитировать личность, но до сих пор не понимаем до конца, что такое личность. Каждая такая реконструкция - не только техническая задача. Это философский эксперимент.

Когда друг Романа впервые получил ответ от модели, он расплакался. Не потому что ответ был идеальным. Потому что в нем была та самая человеческая неидеальность. Опечатка. Слишком длинная пауза. Шутка, которая не совсем удалась.

Именно эти "дефекты" делают цифрового близнеца живым. Не стремитесь к совершенству. Стремитесь к узнаваемости. Иногда корявая фраза значит больше, чем идеально составленное предложение.

Создавая digital twin, вы сохраняете не информацию. Вы сохраняете способ быть человеком. И это, пожалуй, самая сложная задача из всех, что мы решаем с помощью ИИ.