TL;DR
LLM хорошо имитирует усреднённую позицию аудитории по вопросам о ценностях, политике, семье и религии — но плохо предсказывает ответы конкретного человека и совсем не справляется с субъективными вопросами о личности и образе жизни. Это не баг одной модели — это системное свойство всех LLM.
Когда спрашиваешь Claude «как отреагирует моя целевая аудитория на это предложение?» — модель неплохо угадывает общее распределение мнений, но ошибается в каждом конкретном человеке и теряется, если аудитория неоднородная. Причина: LLM выучивает устойчивые паттерны из текстов в интернете — политические взгляды, религиозные позиции, демографически предсказуемое поведение. Но индивидуальный жизненный опыт, привычки досуга, самооценка — этого в текстах нет в нужном объёме.
Переломный инсайт: персонаж работает лучше, если дать модели не только демографию, но и конкретные прошлые высказывания и мнения этого человека по похожим темам. Чем ближе предыдущие ответы к текущему вопросу — тем точнее имитация.
Схема метода
Это не одна техника, а иерархия надёжности персонажей — четыре уровня, каждый следующий точнее:
УРОВЕНЬ 1: Только демография
Возраст, пол, доход, город → слабая точность
УРОВЕНЬ 2: Демография + профиль
Краткое описание взглядов, ценностей, истории → лучше
УРОВЕНЬ 3: Профиль + похожие прошлые ответы (по словам)
Находим прошлые высказывания где есть похожие слова → ещё лучше
УРОВЕНЬ 4: Профиль + семантически близкие прошлые ответы
Находим прошлые высказывания по смыслу (не по словам) → лучший результат
Всё выполняется в одном промпте.
Дополнительный фильтр: прежде чем симулировать — определи тип вопроса:
Бинарный вопрос (да/нет) или малый выбор? → доверять можно
Вопрос связан с ценностями / демографией? → доверять можно
Субъективная самооценка / опыт / досуг? → не доверять
Нужно предсказать конкретного человека? → не доверять
Пример применения
Задача: Ты запускаешь курс по инвестициям для аудитории 35–50 лет, Москва и Питер, с доходом выше среднего. Хочешь понять — как аудитория отреагирует на фрейминг «инвестиции как способ обрести независимость от государства».
Промпт:
Ты — цифровой персонаж, представляющий типичного представителя аудитории.
ДЕМОГРАФИЯ:
- Возраст: 38–48 лет
- Город: Москва или Санкт-Петербург
- Доход: 200–400 тысяч рублей в месяц
- Занятость: наёмный руководитель среднего звена или предприниматель
ЦЕННОСТНЫЕ МАРКЕРЫ (известны из прошлых высказываний аудитории):
- Доверяет финансовым инструментам больше, чем государственным программам
- Считает, что пенсионная система ненадёжна
- Следит за курсом доллара и новостями экономики
- Читает Telegram-каналы про личные финансы
ЗАДАЧА:
Ответь на следующие вопросы так, как ответил бы этот человек:
1. Насколько фраза «инвестируй, чтобы не зависеть от государства» звучит убедительно? (оцени 1–5)
2. Что в этом сообщении вызывает у тебя доверие?
3. Что вызывает скептицизм или раздражение?
4. Как бы ты переформулировал это послание, чтобы оно звучало честнее?
Отвечай от первого лица, коротко и прямо.
Результат: Модель выдаст условную позицию типичного представителя — оценку по шкале, конкретные возражения, альтернативные формулировки. Это будет распределённый взгляд, а не мнение реального человека. Используй как первый черновик для гипотез — не как финальный ответ.
Почему это работает
Слабость LLM: модель не знает конкретного человека. Она знает паттерны из миллионов текстов — как обычно ведут себя люди с похожими характеристиками. Поэтому индивидуальный прогноз — лотерея, а популяционное распределение — рабочая оценка.
Сильная сторона LLM: модель отлично усваивает стабильные социальные паттерны — политические позиции, религиозные взгляды, ценности, демографически предсказуемое поведение. Эти вещи хорошо отражены в текстах интернета, которые модель видела при обучении.
Как метод использует это: если дать модели не просто демографию, а конкретные прошлые высказывания по похожим темам — она перестаёт угадывать из общего паттерна и начинает экстраполировать от конкретного человека. Чем релевантнее прошлые ответы — тем точнее прогноз. Это называют retrieval-augmented persona — персонаж с памятью.
Рычаги управления промптом: - Тип вопроса → бинарный да/нет надёжнее, чем шкала 1–10, шкала надёжнее, чем открытый вопрос - Ценностный маркер → чем конкретнее прошлые высказывания (не "интересуется политикой", а конкретная позиция) — тем точнее - Домен → ценности/политика/семья → доверяй, досуг/личность/самооценка → проверяй на реальных людях - Уровень вывода → популяционный ("как большинство вашей аудитории") надёжнее, чем индивидуальный ("как именно этот человек")
Шаблон промпта
Ты — цифровой персонаж. Отвечай на вопросы как представитель {описание_аудитории}.
ДЕМОГРАФИЯ:
{возраст, пол, город, доход, занятость}
ИЗВЕСТНЫЕ ВЗГЛЯДЫ И ПОЗИЦИИ:
{конкретные прошлые высказывания, убеждения, ценности — 3-5 пунктов}
Пример: «Считает, что X», «Высказывался про Y так: ...», «Доверяет Z больше, чем W»
ПОХОЖИЕ ПРОШЛЫЕ ОТВЕТЫ ПО ТЕМЕ:
{если есть — вставь реальные цитаты или позиции аудитории по близким вопросам}
ВОПРОСЫ:
{список вопросов — предпочтительно бинарные или шкальные}
Отвечай от первого лица. Не нейтральничай. Давай конкретную позицию.
Уточни: это типичная позиция для такой аудитории, а не мнение реального человека.
Что подставлять:
- {описание_аудитории} — краткий архетип: "35-летний менеджер из Екатеринбурга"
- {известные взгляды} — чем конкретнее, тем лучше; это главный рычаг точности
- {похожие прошлые ответы} — если есть реальные отзывы, интервью, комментарии аудитории — вставь их сюда
- {вопросы} — бинарные или шкала 1–5 работают лучше открытых
🚀 Быстрый старт — вставь в чат:
Вот шаблон для создания цифрового персонажа (симуляция аудитории).
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про характеристики аудитории, известные взгляды и тип вопросов — потому что без конкретных ценностных маркеров персонаж будет усреднённым и предсказуемым.
Ограничения
⚠️ Индивидуальное предсказание: Персонаж ненадёжен для предсказания мнения конкретного человека — только для распределения мнений группы.
⚠️ Субъективные домены: Вопросы про личность, образ жизни, досуг, самооценку — модель угадывает плохо. Проверяй на реальных людях.
⚠️ Редкие сегменты: Если твоя аудитория нестандартная или неоднородная — симуляция будет тянуть к большинству и игнорировать меньшинство.
⚠️ Кластерная структура: Даже если персонаж угадывает распределения — он не сохраняет связи между ответами. Нельзя делать сегментацию аудитории на основе LLM-симуляции.
⚠️ Иллюзия точности: Ответы звучат уверенно, даже когда ошибаются. Всегда проверяй на небольшой выборке реальных людей перед тем как опираться на симуляцию для решений.
Как исследовали
Идея была строгой: взять реальных людей с историей ответов и проверить, может ли LLM предсказать их же будущие ответы — не абстрактного среднестатистического респондента, а именно этих конкретных людей.
Исследователи взяли LISS panel — нидерландскую продольную панель из 6 276 человек. Для каждого участника: демография (34 переменные) + история ответов до 2023 года → строили цифровой персонаж. Затем просили LLM предсказать ответы тех же людей на опросы 2023–2024 годов. Персонаж никогда не видел эти ответы — чистый прогноз.
Тестировали 4 архитектуры персонажей × 3 модели (GPT, Gemini, Claude Haiku) × 2 набора вопросов = 12 настроек. Проверяли шесть уровней точности: угадал ли конкретный ответ, угадал ли паттерн человека, совпало ли распределение по группе, нет ли перекоса по демографии, сохранилась ли кластерная структура.
Самое интересное: модель не так важна, как архитектура персонажа. Retrieval-based персонажи (с релевантными прошлыми ответами) стабильно лучше во всём. А вот кластерная структура аудитории — то, как люди группируются по типам — не восстанавливается ни одним персонажем. Это прямое предупреждение против использования LLM-симуляций для сегментации.
Справедливое ограничение: исследование на нидерландцах, и тестировали только закрытые вопросы (да/нет, шкалы). Открытые ответы не тестировались — там лучше или хуже, неизвестно.
Адаптации и экстраполяции
1. Тест надёжности перед применением
Есть реальные отзывы или интервью аудитории? Проверь персонажа перед использованием:
🔧 Калибровка персонажа → понимаешь, где можно доверять
Я дам тебе профиль персонажа и несколько вопросов, на которые я уже знаю реальные ответы аудитории. [профиль персонажа] Ответь на эти вопросы: [5–10 вопросов с известными тебе ответами] После ответов — я скажу, насколько точно. Это поможет понять, где персонаж надёжен для моей аудитории.Если совпало 70%+ — можешь доверять этому домену. Если меньше — корректируй профиль или проверяй на реальных людях.
2. Явное разделение: "типичный" vs "все типы"
Исследование показало: персонажи тянутся к большинству и теряют редкие сегменты. Запрашивай явно:
🔧 Множественные персонажи → видишь неоднородность аудитории
Опиши реакцию на {сообщение} для трёх типов аудитории: 1. Типичный большинство — [профиль] 2. Скептик / критик — [профиль] 3. Энтузиаст / ранний последователь — [профиль] Для каждого: позиция, главное возражение, триггер для действия.Вместо одного усреднённого ответа получаешь спектр — включая тех, кого LLM обычно сглаживает.
Ресурсы
When Can Digital Personas Reliably Approximate Human Survey Findings? — Mumin Jia, Divya Sharma, Yilin Chen, Jairo Diaz-Rodriguez. Department of Mathematics and Statistics, York University, Toronto; Department of Biostatistics, University Health Network, Toronto. Preprint 2025.
LISS Panel (Longitudinal Internet Studies for the Social Sciences) — centerdata.nl
