3,583 papers
arXiv:2602.19403 76 23 фев. 2026 г. FREE

LLM Digital Twin: предскажи реакцию конкретного человека на любой контент

КЛЮЧЕВАЯ СУТЬ
Попроси стандартный LLM оценить твоё письмо «глазами Сергея» — он ответит за усреднённого директора, которого не существует. Метод цифрового двойника позволяет предсказать реакцию конкретного человека до того, как ты отправил ему коммерческое предложение, письмо или скрипт. Фишка: вместо случайных примеров от разных людей — 7+ реакций от одного конкретного человека. Это превращает стандартную технику нескольких примеров в личную настройку: модель видит паттерн вкусов Сергея и предсказывает именно его реакцию, а не абстрактного «типичного клиента».
Адаптировать под запрос

TL;DR

Digital Twin — это техника промптинга, где ты собираешь профиль конкретного человека и историю его прошлых реакций, а потом просишь LLM предсказать, как он отреагирует на новый контент. Всё в одном промпте.

Главная боль персонализации: стандартные LLM-запросы предсказывают «среднего человека», а не конкретного Петра Иванова. Попроси модель оценить коммерческое предложение — она скажет что-то нейтрально-позитивное. Попроси предсказать реакцию Петра — она снова скажет что-то нейтрально-позитивное, потому что понятия не имеет, кто такой Пётр. Люди в реальности реагируют очень по-разному: один оценивает «5», другой тот же текст — «2». Чтобы предсказать это, нужна калибровка под человека, а не под «аудиторию вообще».

Решение — дать модели профиль человека + 7 и более его прошлых реакций на похожий контент. Не случайные примеры из разных людей, а именно от этого человека. Тогда модель видит паттерн его вкусов и может предсказать реакцию на новый материал. Это и есть «цифровой двойник» — LLM, откалиброванная под конкретного человека.


🔬

Схема метода

Всё выполняется в одном промпте:

БЛОК 1: Профиль человека
         → Характеристики, контекст, поведение

БЛОК 2: История реакций (7+ примеров)
         → [Контент 1] → [Его оценка]
         → [Контент 2] → [Его оценка]
         → ...

БЛОК 3: Новый контент
         → Что нужно оценить

ЗАПРОС: Предскажи реакцию этого человека
         → Оценка + объяснение

🚀

Пример применения

Задача: Маша — менеджер по работе с клиентами в B2B-агентстве. Ей нужно выбрать один из трёх вариантов коммерческого предложения для клиента Сергея Краснова — директора логистической компании. Сергей педантичен, не любит «воду» и несколько раз давал холодный фидбэк на красивые, но размытые презентации. Маша хочет протестировать варианты до отправки.

Промпт:

Ты — симулятор восприятия конкретного человека.

## Профиль человека
Сергей Краснов, директор логистической компании (50 чел., Екатеринбург).
Стиль: ценит конкретику и цифры, раздражается от «воды» и маркетинговых клише.
Приоритеты: экономия времени, снижение операционных рисков, надёжность партнёра.
Опыт с агентствами: был обманут абстрактными обещаниями, теперь требует кейсы и гарантии.

## История его реакций на наши материалы
Материал 1: «Мы помогаем бизнесам расти с помощью современных решений» 
→ Реакция Сергея: «Это ни о чём. Что конкретно вы делаете?» [Оценка: 1/5]

Материал 2: «Оптимизировали склад для компании схожего профиля: -23% времени обработки заказов за 3 месяца. Вот цифры по шагам.»
→ Реакция Сергея: «Вот это разговор. Расскажите подробнее.» [Оценка: 5/5]

Материал 3: «Наша команда экспертов с многолетним опытом готова стать вашим надёжным партнёром на пути к успеху»
→ Реакция Сергея: проигнорировал, не ответил [Оценка: 1/5]

Материал 4: «Работали с тремя логистическими компаниями в УрФО. Средний результат: сокращение ошибок комплектации на 18%. Можем показать методику.»
→ Реакция Сергея: «Хорошо, назначьте встречу.» [Оценка: 4/5]

Материал 5: «Предлагаем гибкие условия сотрудничества под ваши задачи»
→ Реакция Сергея: «Что значит "гибкие"? Цены есть?» [Оценка: 2/5]

Материал 6: «Конкретный расчёт: при вашем объёме — 1200 заказов/мес — автоматизация учёта сокращает ручной труд на ~40 часов в неделю. Стоимость внедрения окупается за 4 месяца.»
→ Реакция Сергея: «Это интересно. Как считали?» [Оценка: 5/5]

Материал 7: «Мы работаем по принципу прозрачности и клиентоориентированности»
→ Реакция Сергея: ответил односложно, без продолжения [Оценка: 2/5]

## Новый материал для оценки
«Сергей, мы изучили открытые данные по логистике в вашем сегменте. 
Компании с парком 15–30 машин теряют в среднем 12–17% времени на дублирование данных между системами. 
Мы решали эту задачу для двух компаний в Екатеринбурге — результат: -14% времени, +9% к точности отгрузок.
Можем провести бесплатный аудит вашего процесса за 2 часа и показать, где у вас утечка.»

## Задача
Основываясь на профиле Сергея и его прошлых реакциях, предскажи:
1. Как он, скорее всего, отреагирует на этот материал (оценка 1–5 и словесное описание реакции)
2. Какой элемент зайдёт лучше всего и почему
3. Что может насторожить или не понравиться

Результат: Модель предскажет реакцию с объяснением паттерна — почему этот текст попадает или не попадает в стиль Сергея. Выдаст примерную оценку по шкале, сильные элементы и потенциальные точки риска — на основе его задокументированного поведения, а не абстрактного «типичного директора».


🧠

Почему это работает

Проблема стандартного LLM-запроса: модель не знает конкретного человека. Когда ты просишь «оцени этот текст», она отвечает как гипотетический «средний читатель». Но реальные люди реагируют очень по-разному — даже на один и тот же материал. Разброс оценок между людьми огромен, и поймать его без данных невозможно.

Что умеет LLM хорошо: распознавать паттерны в примерах. Если ты показываешь несколько пар «контент → реакция», модель улавливает логику: что нравится этому человеку, что раздражает, каков его порог чувствительности к разным элементам.

Как метод использует это: вместо случайных few-shot примеров (от разных людей) ты даёшь примеры от одного конкретного человека. Это превращает стандартную few-shot технику в персональную калибровку. Профиль добавляет контекст «кто этот человек», история реакций показывает «как он ведёт себя на практике». Вместе это создаёт слепок его предпочтений — и модель начинает предсказывать именно его, а не абстрактного пользователя.

Рычаги управления промптом: - Количество примеров в истории → 7+ оптимально, меньше 3 — предсказания ненадёжны - Детализация профиля → больше специфики («не любит слово "синергия"») — точнее калибровка - Формат оценки → попроси оценку по направлению (позитив/нейтрал/негатив), если точная цифра не нужна — это надёжнее - Запрос объяснения → добавь «объясни, какой элемент даёт такую реакцию» — получишь не просто оценку, но и инсайт для правки контента


📋

Шаблон промпта

Ты — симулятор восприятия конкретного человека.

## Профиль человека
{имя и роль}
Стиль: {как принимает решения, что ценит, что раздражает}
Приоритеты: {ключевые критерии оценки}
Контекст: {релевантный опыт, установки}

## История его реакций на {тип контента}
Материал 1: «{контент}»
→ Реакция: {словесная реакция или действие} [Оценка: {1-5}]

Материал 2: «{контент}»
→ Реакция: {словесная реакция или действие} [Оценка: {1-5}]

[... минимум 5-7 пар]

## Новый материал для оценки
«{контент который нужно протестировать}»

## Задача
Основываясь на профиле и прошлых реакциях, предскажи:
1. Реакцию на новый материал (оценка 1–5 и словесное описание)
2. Что зайдёт лучше всего и почему
3. Что может не понравиться или насторожить

Что подставлять: - {тип контента} — коммерческие предложения, письма, посты, описания услуг, скрипты звонков - {контент} — реальные тексты, которые человек уже видел и оценил - {словесная реакция} — его слова, действия, цитаты из переписки, поведение (ответил/проигнорировал/купил) - Оценку 1–5 можно заменить на «понравилось/нейтрально/не понравилось» если точных цифр нет


🚀 Быстрый старт — вставь в чат:

Вот шаблон Digital Twin промпта. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить все поля.

[вставить шаблон выше]

LLM спросит об истории реакций и профиле человека — потому что без них невозможно построить калибровку под конкретного человека, а не «среднего пользователя».


⚠️

Ограничения

⚠️ Нужна история реакций: Без 5–7 прошлых реакций от конкретного человека техника не работает. Если данных нет — это обычный few-shot с профилем, эффект значительно слабее.

⚠️ Точность по шкале умеренная: Модель хорошо угадывает направление (нравится / нейтрально / не нравится) — около 70% случаев. Точное число на 5-балльной шкале угадывает примерно в половине случаев. Для принятия решений лучше спрашивать «как отреагирует» а не «какую поставит оценку».

⚠️ Люди непоследовательны сами с собой: Даже при повторной оценке того же контента человек меняет мнение примерно в 19% случаев. Это фундаментальный предел точности — не баг метода.

⚠️ Статичная история: Метод не улавливает изменения в человеке со временем. Если его взгляды или приоритеты изменились, старые реакции могут вводить модель в заблуждение. Обновляй историю свежими примерами.


🔍

Как исследовали

Исследователи из Johns Hopkins взяли 301 молодого курильщика и попросили каждого оценить 10 сообщений о борьбе с курением по нескольким критериям — насколько текст качественный, насколько помогает справляться с тягой, насколько мотивирует бросить. Итого 3010 оценок на 5-балльной шкале.

Затем они сравнили пять подходов: традиционные ML-модели, zero-shot LLM, few-shot LLM с разными конфигурациями, и Digital Twin — где каждому участнику создали «цифровой двойник» из его профиля и 7 прошлых оценок. Новые три сообщения модель должна была предсказать, не зная реального ответа.

Неожиданный результат: zero-shot и few-shot LLM с чужими примерами показали ровно такой же результат, как старые ML-модели — никакого прорыва от мощных моделей не было. Прорыв дал только Digital Twin — когда примеры брались от того же самого человека. Разрыв — 12–13 процентных пунктов. Ещё интереснее: Digital Twin-модели давали предсказания по всей шкале от 1 до 5, тогда как другие подходы «зависали» на двух-трёх средних категориях. Это значит, что только Digital Twin улавливал реальные индивидуальные различия, а не усреднял всех.


💡

Адаптации и экстраполяции

1. Техника: Заменить точную оценку → направление

Если у тебя нет числовых оценок из прошлого, используй поведение как прокси:

Материал 1: «{контент}»
→ Реакция: переслал коллегам, написал «интересно» [направление: позитив]

Материал 2: «{контент}»  
→ Реакция: прочитал, не ответил [направление: нейтрал/негатив]

Модель работает и с такими сигналами — она распознаёт паттерн, даже если у тебя нет точных цифр.


2. Экстраполяция: Digital Twin для целевой аудитории, а не конкретного человека

Если у тебя нет данных об одном человеке, но есть исследование аудитории — составь «сборный портрет» из реальных цитат из фокус-группы или отзывов:

## Профиль: типичный покупатель курса по инвестициям
Возраст 28–35, работает в найме, хочет пассивный доход, боится потерять деньги.

## История реакций этой аудитории (из комментариев/интервью)
«Научитесь инвестировать как профи!» → «Слишком самоуверенно, не верю» [негатив]
«Первый шаг с 10 000 рублей: что делать пошагово» → «Вот это реально, пойду почитаю» [позитив]
«Инвестиции — это просто!» → «Нет, это не просто, не надо врать» [негатив]

Точность ниже, чем с одним человеком, — но намного лучше, чем спрашивать «понравится ли это моей аудитории?» в пустоту.


🔗

Ресурсы

Статья: Personalized Prediction of Perceived Message Effectiveness Using Large Language Model–Based Digital Twins

Авторы: Jasmin Han, Janardan Devkota, Joseph Waring и соавторы

Организации: Johns Hopkins Bloomberg School of Public Health, University of East Anglia, Wake Forest University School of Medicine, Fred Hutchinson Cancer Center, La Trobe University

Код и данные: - Код: https://github.com/yiqunchen/LLM-smoking-cessation/ - Данные: https://osf.io/4ux8q/overview

Ключевые отсылки в исследовании: - Toubia et al., 2025 — предшественник по digital twin промптингу - Sprint et al., 2024 — digital twins для предсказания когнитивного здоровья


📋 Дайджест исследования

Ключевая суть

Попроси стандартный LLM оценить твоё письмо «глазами Сергея» — он ответит за усреднённого директора, которого не существует. Метод цифрового двойника позволяет предсказать реакцию конкретного человека до того, как ты отправил ему коммерческое предложение, письмо или скрипт. Фишка: вместо случайных примеров от разных людей — 7+ реакций от одного конкретного человека. Это превращает стандартную технику нескольких примеров в личную настройку: модель видит паттерн вкусов Сергея и предсказывает именно его реакцию, а не абстрактного «типичного клиента».

Принцип работы

LLM хорошо умеет одно: находить паттерны в примерах. Запрос «оцени текст» — это запрос без паттерна, модель отвечает за гипотетического читателя. Но дай ей 7 пар «текст → реакция Сергея» — и она видит закономерность: что он ценит, что раздражает, где его порог терпения. Весь метод сводится к одному: замени случайные примеры на примеры от одного человека — получишь личный предсказчик. Не магия — это настройка через поведение, а не через описание личности. Профиль без истории реакций — это просто текст о человеке. История реакций без профиля — чуть лучше. Вместе — поведенческий слепок.

Почему работает

Люди реагируют на один и тот же текст очень по-разному. Разброс огромный, и без данных его не угадать. LLM без контекста выдаёт «среднюю температуру по больнице». Добавь историю реакций от конкретного человека — и модель переключается с режима «что понравится большинству» на режим «что понравится вот этому, с его паттерном». Ключевой момент: важна именно личная история, а не профиль сам по себе. Направление предсказывается правильно в 7 из 10 случаев. Точную оценку по шкале — примерно в половине. При этом даже сам человек меняет мнение о том же контенте в каждом пятом случае — это фундаментальный предел, не баг метода.

Когда применять

Продажи и маркетинг → тестирование коммерческих предложений, писем, скриптов на конкретного клиента до отправки, особенно когда есть переписка или история взаимодействий. Контент → для редакторов и авторов с данными о реакциях читателей на прошлые материалы. Продуктовые команды → проверить, как конкретный пользователь воспримет новую функцию, если есть его обратная связь по прошлым. НЕ подходит: когда истории реакций нет совсем — без 5–7 примеров от конкретного человека это обычный запрос с профилем, эффект значительно слабее.

Мини-рецепт

1. Собери профиль: имя, роль, стиль принятия решений, что ценит, что раздражает, ключевые приоритеты — чем конкретнее, тем точнее.
2. Добавь историю реакций: минимум 7 пар «контент → его реакция». Не выдумывай — бери реальное: слова из переписки, действия (ответил / проигнорировал / купил), оценку 1–5 если есть.
3. Вставь новый материал: текст, реакцию на который хочешь предсказать.
4. Задай конкретный вопрос: не просто «оцени», а «предскажи реакцию на основе профиля и истории: направление, что зайдёт, что насторожит».
5. Спрашивай направление, а не цифру: «позитив / нейтрал / негатив» угадывается в 70% случаев. Точная оценка по шкале — только в половине. Для решений лучше использовать направление.

Примеры

[ПЛОХО] : Оцени это коммерческое предложение для директора логистической компании
[ХОРОШО] : Ты — симулятор восприятия конкретного человека. ## Профиль Сергей Краснов, директор логистической компании. Ценит цифры и конкретику, раздражается от маркетинговых клише и абстрактных обещаний. Требует кейсы и цифры — был обманут размытыми презентациями. ## История его реакций Материал 1: «Мы помогаем бизнесам расти с помощью современных решений» → «Это ни о чём» [1/5] Материал 2: «Сократили время обработки заказов на 23% за 3 месяца. Вот цифры по шагам.» → «Вот это разговор» [5/5] [... ещё 5 пар] ## Новый материал «Сергей, компании с парком 15–30 машин теряют 12–17% времени на дублирование данных. Решали это для двух компаний в Екатеринбурге: -14% времени, +9% к точности отгрузок. Проведём бесплатный аудит за 2 часа.» ## Задача Предскажи: реакцию (1–5 и словами), что зайдёт лучше всего и почему, что может не понравиться.
Источник: Personalized Prediction of Perceived Message Effectiveness Using Large Language Model Based Digital Twins
ArXiv ID: 2602.19403 | Сгенерировано: 2026-02-24 06:33

Проблемы LLM

ПроблемаСутьКак обойти
Модель предсказывает реакцию «среднего человека», а не конкретногоПросишь оценить текст с позиции конкретного человека. Модель не знает кто это. Отвечает как усреднённый читатель. Люди реагируют по-разному: один ставит 5, другой тот же текст — 2. Без личных данных человека поймать это невозможноДобавь в промпт 7+ его прошлых реакций на похожий контент. Только от этого человека — не от разных людей. Тогда модель видит его личный паттерн, а не «типичного пользователя»

Методы

МетодСуть
Цифровой двойник — предсказание реакции конкретного человекаСобери три блока в один промпт. Блок 1: профиль человека — кто он, что ценит, что раздражает. Блок 2: 7+ пар «контент его реакция» только от этого человека. Блок 3: новый контент для оценки. Запрос: «предскажи реакцию этого человека». Почему работает: модель распознаёт паттерны. Обычный few-shot смешивает примеры от разных людей — модель усредняет. Примеры от одного человека — модель калибруется под его вкус. Когда работает: есть реальная история реакций конкретного человека (переписка, оценки, действия). Когда не работает: примеров меньше 3 — это просто обычный few-shot с профилем, точность сильно падает
📖 Простыми словами

Personalized Prediction of Perceived Message Effectiveness UsingLargeLanguageModelBased Digital Twins

arXiv: 2602.19403

Суть метода Digital Twin в том, что нейронка перестает гадать на кофейной гуще и превращается в персонального симулятора конкретного человека. Обычная LLM всегда отвечает как «средний по больнице» пользователь — такой стерильный персонаж, которого не существует в природе. Чтобы пробить этот барьер, в модель запихивают цифровой слепок личности: его привычки, прошлые реакции и когнитивные искажения. В итоге нейронка не просто анализирует текст, а имитирует химию мозга конкретного Сергея Ивановича, предсказывая, взбесит его твое письмо или заставит достать кошелек.

Это как если бы у тебя была кукла вуду твоего клиента, но вместо того чтобы тыкать в нее иголками, ты прогоняешь через нее свои идеи. Формально ты общаешься с ботом, но по факту это краш-тест реальности. Ты скармливаешь модели историю прошлых факапов и удач человека, и она выдает вердикт: «Слушай, на этом моменте он закроет ноутбук, потому что ненавидит пафос». Это позволяет не гадать, «зайдет или нет», а заранее увидеть облом и подстелить соломку.

Технически всё упаковано в единый контекстный промпт, где критически важны три компонента: детальный профиль, история оценок и сам контент. Метод персонализированного прогнозирования работает потому, что LLM отлично находит паттерны в поведении. Если в данных есть зацепка, что человек педант и ценит цифры, модель моментально отсекает любой «успешный успех» и требует конкретики в 1-2 предложениях. Это не просто «мнение ИИ», это математически обоснованная имитация чужого восприятия.

Тестировали это на оценке эффективности сообщений, но принцип универсален. Эта штука идеально ложится на продажи, переговоры, HR-интервью и даже личные разборки. Любая ситуация, где цена ошибки в коммуникации высока, требует такого цифрового двойника. Вместо того чтобы рассылать спам и ждать у моря погоды, ты прогоняешь оффер через симуляцию и понимаешь, где именно ты лажаешь. Массовый маркетинг мертв, наступает эпоха индивидуальных симуляций.

Главный вывод: хватит спрашивать у ChatGPT «хороший ли это текст», спрашивай, как на него отреагирует конкретный психотип с багажом прошлого опыта. Digital Twin — это твой личный полигон для испытаний, который экономит время и нервы. Либо ты начинаешь использовать данные о клиентах для создания таких двойников, либо продолжаешь стрелять в молоко, надеясь на авось. Кто первый внедрит симуляцию фидбэка, тот перестанет сливать бюджеты на контент, который никого не цепляет.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с