TL;DR
Digital Twin — это техника промптинга, где ты собираешь профиль конкретного человека и историю его прошлых реакций, а потом просишь LLM предсказать, как он отреагирует на новый контент. Всё в одном промпте.
Главная боль персонализации: стандартные LLM-запросы предсказывают «среднего человека», а не конкретного Петра Иванова. Попроси модель оценить коммерческое предложение — она скажет что-то нейтрально-позитивное. Попроси предсказать реакцию Петра — она снова скажет что-то нейтрально-позитивное, потому что понятия не имеет, кто такой Пётр. Люди в реальности реагируют очень по-разному: один оценивает «5», другой тот же текст — «2». Чтобы предсказать это, нужна калибровка под человека, а не под «аудиторию вообще».
Решение — дать модели профиль человека + 7 и более его прошлых реакций на похожий контент. Не случайные примеры из разных людей, а именно от этого человека. Тогда модель видит паттерн его вкусов и может предсказать реакцию на новый материал. Это и есть «цифровой двойник» — LLM, откалиброванная под конкретного человека.
Схема метода
Всё выполняется в одном промпте:
БЛОК 1: Профиль человека
→ Характеристики, контекст, поведение
БЛОК 2: История реакций (7+ примеров)
→ [Контент 1] → [Его оценка]
→ [Контент 2] → [Его оценка]
→ ...
БЛОК 3: Новый контент
→ Что нужно оценить
ЗАПРОС: Предскажи реакцию этого человека
→ Оценка + объяснение
Пример применения
Задача: Маша — менеджер по работе с клиентами в B2B-агентстве. Ей нужно выбрать один из трёх вариантов коммерческого предложения для клиента Сергея Краснова — директора логистической компании. Сергей педантичен, не любит «воду» и несколько раз давал холодный фидбэк на красивые, но размытые презентации. Маша хочет протестировать варианты до отправки.
Промпт:
Ты — симулятор восприятия конкретного человека.
## Профиль человека
Сергей Краснов, директор логистической компании (50 чел., Екатеринбург).
Стиль: ценит конкретику и цифры, раздражается от «воды» и маркетинговых клише.
Приоритеты: экономия времени, снижение операционных рисков, надёжность партнёра.
Опыт с агентствами: был обманут абстрактными обещаниями, теперь требует кейсы и гарантии.
## История его реакций на наши материалы
Материал 1: «Мы помогаем бизнесам расти с помощью современных решений»
→ Реакция Сергея: «Это ни о чём. Что конкретно вы делаете?» [Оценка: 1/5]
Материал 2: «Оптимизировали склад для компании схожего профиля: -23% времени обработки заказов за 3 месяца. Вот цифры по шагам.»
→ Реакция Сергея: «Вот это разговор. Расскажите подробнее.» [Оценка: 5/5]
Материал 3: «Наша команда экспертов с многолетним опытом готова стать вашим надёжным партнёром на пути к успеху»
→ Реакция Сергея: проигнорировал, не ответил [Оценка: 1/5]
Материал 4: «Работали с тремя логистическими компаниями в УрФО. Средний результат: сокращение ошибок комплектации на 18%. Можем показать методику.»
→ Реакция Сергея: «Хорошо, назначьте встречу.» [Оценка: 4/5]
Материал 5: «Предлагаем гибкие условия сотрудничества под ваши задачи»
→ Реакция Сергея: «Что значит "гибкие"? Цены есть?» [Оценка: 2/5]
Материал 6: «Конкретный расчёт: при вашем объёме — 1200 заказов/мес — автоматизация учёта сокращает ручной труд на ~40 часов в неделю. Стоимость внедрения окупается за 4 месяца.»
→ Реакция Сергея: «Это интересно. Как считали?» [Оценка: 5/5]
Материал 7: «Мы работаем по принципу прозрачности и клиентоориентированности»
→ Реакция Сергея: ответил односложно, без продолжения [Оценка: 2/5]
## Новый материал для оценки
«Сергей, мы изучили открытые данные по логистике в вашем сегменте.
Компании с парком 15–30 машин теряют в среднем 12–17% времени на дублирование данных между системами.
Мы решали эту задачу для двух компаний в Екатеринбурге — результат: -14% времени, +9% к точности отгрузок.
Можем провести бесплатный аудит вашего процесса за 2 часа и показать, где у вас утечка.»
## Задача
Основываясь на профиле Сергея и его прошлых реакциях, предскажи:
1. Как он, скорее всего, отреагирует на этот материал (оценка 1–5 и словесное описание реакции)
2. Какой элемент зайдёт лучше всего и почему
3. Что может насторожить или не понравиться
Результат: Модель предскажет реакцию с объяснением паттерна — почему этот текст попадает или не попадает в стиль Сергея. Выдаст примерную оценку по шкале, сильные элементы и потенциальные точки риска — на основе его задокументированного поведения, а не абстрактного «типичного директора».
Почему это работает
Проблема стандартного LLM-запроса: модель не знает конкретного человека. Когда ты просишь «оцени этот текст», она отвечает как гипотетический «средний читатель». Но реальные люди реагируют очень по-разному — даже на один и тот же материал. Разброс оценок между людьми огромен, и поймать его без данных невозможно.
Что умеет LLM хорошо: распознавать паттерны в примерах. Если ты показываешь несколько пар «контент → реакция», модель улавливает логику: что нравится этому человеку, что раздражает, каков его порог чувствительности к разным элементам.
Как метод использует это: вместо случайных few-shot примеров (от разных людей) ты даёшь примеры от одного конкретного человека. Это превращает стандартную few-shot технику в персональную калибровку. Профиль добавляет контекст «кто этот человек», история реакций показывает «как он ведёт себя на практике». Вместе это создаёт слепок его предпочтений — и модель начинает предсказывать именно его, а не абстрактного пользователя.
Рычаги управления промптом: - Количество примеров в истории → 7+ оптимально, меньше 3 — предсказания ненадёжны - Детализация профиля → больше специфики («не любит слово "синергия"») — точнее калибровка - Формат оценки → попроси оценку по направлению (позитив/нейтрал/негатив), если точная цифра не нужна — это надёжнее - Запрос объяснения → добавь «объясни, какой элемент даёт такую реакцию» — получишь не просто оценку, но и инсайт для правки контента
Шаблон промпта
Ты — симулятор восприятия конкретного человека.
## Профиль человека
{имя и роль}
Стиль: {как принимает решения, что ценит, что раздражает}
Приоритеты: {ключевые критерии оценки}
Контекст: {релевантный опыт, установки}
## История его реакций на {тип контента}
Материал 1: «{контент}»
→ Реакция: {словесная реакция или действие} [Оценка: {1-5}]
Материал 2: «{контент}»
→ Реакция: {словесная реакция или действие} [Оценка: {1-5}]
[... минимум 5-7 пар]
## Новый материал для оценки
«{контент который нужно протестировать}»
## Задача
Основываясь на профиле и прошлых реакциях, предскажи:
1. Реакцию на новый материал (оценка 1–5 и словесное описание)
2. Что зайдёт лучше всего и почему
3. Что может не понравиться или насторожить
Что подставлять:
- {тип контента} — коммерческие предложения, письма, посты, описания услуг, скрипты звонков
- {контент} — реальные тексты, которые человек уже видел и оценил
- {словесная реакция} — его слова, действия, цитаты из переписки, поведение (ответил/проигнорировал/купил)
- Оценку 1–5 можно заменить на «понравилось/нейтрально/не понравилось» если точных цифр нет
🚀 Быстрый старт — вставь в чат:
Вот шаблон Digital Twin промпта. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить все поля.
[вставить шаблон выше]
LLM спросит об истории реакций и профиле человека — потому что без них невозможно построить калибровку под конкретного человека, а не «среднего пользователя».
Ограничения
⚠️ Нужна история реакций: Без 5–7 прошлых реакций от конкретного человека техника не работает. Если данных нет — это обычный few-shot с профилем, эффект значительно слабее.
⚠️ Точность по шкале умеренная: Модель хорошо угадывает направление (нравится / нейтрально / не нравится) — около 70% случаев. Точное число на 5-балльной шкале угадывает примерно в половине случаев. Для принятия решений лучше спрашивать «как отреагирует» а не «какую поставит оценку».
⚠️ Люди непоследовательны сами с собой: Даже при повторной оценке того же контента человек меняет мнение примерно в 19% случаев. Это фундаментальный предел точности — не баг метода.
⚠️ Статичная история: Метод не улавливает изменения в человеке со временем. Если его взгляды или приоритеты изменились, старые реакции могут вводить модель в заблуждение. Обновляй историю свежими примерами.
Как исследовали
Исследователи из Johns Hopkins взяли 301 молодого курильщика и попросили каждого оценить 10 сообщений о борьбе с курением по нескольким критериям — насколько текст качественный, насколько помогает справляться с тягой, насколько мотивирует бросить. Итого 3010 оценок на 5-балльной шкале.
Затем они сравнили пять подходов: традиционные ML-модели, zero-shot LLM, few-shot LLM с разными конфигурациями, и Digital Twin — где каждому участнику создали «цифровой двойник» из его профиля и 7 прошлых оценок. Новые три сообщения модель должна была предсказать, не зная реального ответа.
Неожиданный результат: zero-shot и few-shot LLM с чужими примерами показали ровно такой же результат, как старые ML-модели — никакого прорыва от мощных моделей не было. Прорыв дал только Digital Twin — когда примеры брались от того же самого человека. Разрыв — 12–13 процентных пунктов. Ещё интереснее: Digital Twin-модели давали предсказания по всей шкале от 1 до 5, тогда как другие подходы «зависали» на двух-трёх средних категориях. Это значит, что только Digital Twin улавливал реальные индивидуальные различия, а не усреднял всех.
Адаптации и экстраполяции
1. Техника: Заменить точную оценку → направление
Если у тебя нет числовых оценок из прошлого, используй поведение как прокси:
Материал 1: «{контент}»
→ Реакция: переслал коллегам, написал «интересно» [направление: позитив]
Материал 2: «{контент}»
→ Реакция: прочитал, не ответил [направление: нейтрал/негатив]
Модель работает и с такими сигналами — она распознаёт паттерн, даже если у тебя нет точных цифр.
2. Экстраполяция: Digital Twin для целевой аудитории, а не конкретного человека
Если у тебя нет данных об одном человеке, но есть исследование аудитории — составь «сборный портрет» из реальных цитат из фокус-группы или отзывов:
## Профиль: типичный покупатель курса по инвестициям
Возраст 28–35, работает в найме, хочет пассивный доход, боится потерять деньги.
## История реакций этой аудитории (из комментариев/интервью)
«Научитесь инвестировать как профи!» → «Слишком самоуверенно, не верю» [негатив]
«Первый шаг с 10 000 рублей: что делать пошагово» → «Вот это реально, пойду почитаю» [позитив]
«Инвестиции — это просто!» → «Нет, это не просто, не надо врать» [негатив]
Точность ниже, чем с одним человеком, — но намного лучше, чем спрашивать «понравится ли это моей аудитории?» в пустоту.
Ресурсы
Статья: Personalized Prediction of Perceived Message Effectiveness Using Large Language Model–Based Digital Twins
Авторы: Jasmin Han, Janardan Devkota, Joseph Waring и соавторы
Организации: Johns Hopkins Bloomberg School of Public Health, University of East Anglia, Wake Forest University School of Medicine, Fred Hutchinson Cancer Center, La Trobe University
Код и данные: - Код: https://github.com/yiqunchen/LLM-smoking-cessation/ - Данные: https://osf.io/4ux8q/overview
Ключевые отсылки в исследовании: - Toubia et al., 2025 — предшественник по digital twin промптингу - Sprint et al., 2024 — digital twins для предсказания когнитивного здоровья
