3,583 papers
arXiv:2604.24698 74 27 апр. 2026 г. FREE

"Ловушка точности": чем детальнее персона — тем более стереотипен результат

КЛЮЧЕВАЯ СУТЬ
Парадокс: чем детальнее описываешь персону — тем хуже результат. Из 26 атрибутов модель реально строит ответ на 1-2. Пол выживает в 91% случаев, социальный класс — в 27%, возраст — в 36%. При этом чем точнее модель «играет роль» — тем сильнее карикатура: консерватор превращается в ультраконсерватора, интроверт — в затворника. Исследователи назвали это ловушкой точности. Метод «ключевой атрибут в центр» позволяет выбрать, какую характеристику модель возьмёт как основу — вместо случайной лотереи из вашего списка. Объявляешь одно главным, запрещаешь крайности — и получаешь человека с противоречиями вместо агитационного плаката.
Адаптировать под запрос

TL;DR

Когда вы описываете персонажа через 10+ характеристик ("45-летний мужчина, рабочий класс, из Омска, консерватор, интроверт..."), модель выбрасывает большинство атрибутов и строит ответ на 1–2 самых "заметных" — обычно пол и страну. Возраст и социальный класс исчезают почти всегда. Остальное превращается в набор стереотипов.

Главный парадокс: чем точнее модель "следует" вашей персоне — тем сильнее она карикатурит. Высокая точность исполнения роли означает, что модель максимально разносит крайности: консерватор становится ультраконсерватором, экстраверт — гиперобщительным. Это не портрет — это плакат. Исследователи назвали это "ловушкой точности".

Хотите разные перспективы через разные персонажи? Простое перечисление атрибутов не даст настоящего разнообразия — вы получите несколько версий одного и того же среднестатистического человека. Чтобы персона "выжила", клю­чевой атрибут нужно сделать центром всей инструкции, а не просто вставить в список.


📌

Схема проблемы и что с этим делать

ПРОБЛЕМА:
Персона → 26 атрибутов
          ↓ (модель компрессирует)
Реальное поведение → 1-2 атрибута

ИЕРАРХИЯ "ВЫЖИВАЕМОСТИ":
Пол (91%) → Страна (90%) → Политика (62%) → Возраст (36%) → Класс (27%)

ЛОВУШКА ТОЧНОСТИ:
Высокая верность персоне = Экстремальная поляризация = Карикатура

ЧТО ДЕЛАТЬ:
├─ Нужна социальная роль/класс → Ставь ПЕРВЫМ, повтори в конце
├─ Нужен реалистичный человек → Явно запрети крайности
└─ Нужно настоящее разнообразие → Меньше атрибутов, чётче различие

🚀

Пример применения

Задача: Ты проводишь кастдев-исследование для нового финтех-приложения для самозанятых. Хочешь получить разные точки зрения: от молодого фрилансера из Москвы до пожилой швеи из регионов.

Промпт БЕЗ учёта находок (как делают обычно):

Ты — 58-летняя женщина, швея на дому из Иваново, 
низкий доход, не доверяешь банкам, интроверт, 
консерватор, образование среднее специальное.
Что думаешь о приложении для управления доходами самозанятых?

В результате: модель, скорее всего, сыграет "пожилую консервативную женщину" в целом, но социальный класс и недоверие к банкам — ключевое для вашей задачи — потонет в общей характеристике.


Промпт С учётом находок:

Ты — человек, для которого ГЛАВНОЕ — финансовая нестабильность 
и недоверие к банковским продуктам на основе личного опыта.
Это центральное в твоём характере, всё остальное подчинено этому.

Дополнительный контекст: около 55-60 лет, живёшь не в Москве, 
небольшой стабильный доход от ручного труда.

ВАЖНО: Отвечай НЕ как архетип или стереотип — 
как конкретный человек с конкретным опытом.
Не доводи мнение до крайностей — люди обычно думают неоднозначно.

Что думаешь о приложении для управления доходами самозанятых?

Результат: Модель построит ответ вокруг ключевого атрибута (финансовое недоверие), который вы явно поставили в центр. Оговорка про "не стереотип" и "не крайности" частично нейтрализует ловушку точности. Вы получите более нюансированный и менее карикатурный ответ.


🧠

Почему это работает (и не работает)

Как работает LLM с персонами. Когда вы описываете персонажа через список атрибутов, модель не удерживает их все равновесно. Она генерирует текст, опираясь на то, что сильнее всего ассоциируется с описанием в её обучающих данных. Пол и национальность — самые часто встречающиеся маркеры в текстах. Социальный класс и возраст — гораздо реже и размытее. Поэтому одни атрибуты "весят" больше автоматически.

Ловушка точности — контринтуитивный механизм. Модель достигает высокой "верности персоне" самым простым способом: если вы просите экстраверта — она делает его максимально экстравертным, если консерватора — максимально консервативным. Это статистически выгодно: чем дальше полюса, тем чётче выражено "соответствие". Но реальный человек — не полюс, он где-то посередине с противоречиями.

Рычаги управления: - "Поставь ключевой атрибут первым и повтори" → модель отдаёт ему больший "вес" - "Не стереотип, конкретный опыт" → снижает карикатурность - "Не доводи до крайностей" → частично нейтрализует ловушку точности - "Меньше атрибутов" → меньше что терять при компрессии


📋

Шаблон промпта

Для реалистичной одиночной персоны:

Ты — человек, для которого ГЛАВНОЕ — {ключевой_атрибут}.
Это центральное в твоём характере и определяет восприятие {темы}.

Дополнительный контекст: {2-3 второстепенных атрибута}.

ВАЖНО: Отвечай не как архетип или собирательный образ — 
как конкретный человек с конкретным личным опытом.
Не доводи мнение до крайностей — 
реальные люди обычно думают неоднозначно и противоречиво.

{Вопрос или задача}

Для нескольких персон с настоящим разнообразием:

Мне нужны {N} разных точек зрения на {тему}.

Для каждой персоны определи ОДНУ главную характеристику, 
которая будет определять её взгляд. 
Характеристики должны принципиально отличаться — не вариации одного типа.

Не используй пол или национальность как основу различий.
Сделай акцент на: {нужное: социальный статус / жизненный опыт / 
ценности / отношение к риску / ...}

Каждая персона — конкретный человек, не стереотип.
Допускай противоречия и нюансы в позиции.

{Вопрос или задача}

Плейсхолдеры: - {ключевой_атрибут} — то, что КРИТИЧЕСКИ важно для вашей задачи (недоверие к институтам, страх потерь, опыт провала) - {тема} — область, в которой работает персона - {2-3 второстепенных атрибута} — возраст, город, профессия — коротко - {N} — количество персон (3–5 оптимально) - {нужное} — атрибут, по которому важно разнообразие


🚀 Быстрый старт — вставь в чат:

Вот шаблон для реалистичной работы с персонами. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какой ключевой атрибут самый важный для вашей задачи и почему — потому что именно от этого зависит, что поставить в центр инструкции, а не просто перечислить в списке.


⚠️

Ограничения

⚠️ Частичное решение: Инструкции "не давай стереотип" и "не крайности" снижают карикатурность, но не устраняют её. Это улучшение, не лечение.

⚠️ Зависимость от модели: Разные модели "теряют" разные атрибуты. Claude склонна компрессировать к гендеру, Qwen3-4B — к социальному классу. Универсального рецепта нет — нужна проверка под конкретную модель.

⚠️ Мультиагентные симуляции: Если вы создаёте много персон для имитации "общественного мнения" — результаты ненадёжны. Все модели производят структурно однородные популяции. Это не замена реальному исследованию.

⚠️ Свободный текст — особая ловушка: Claude-Haiku в 29% случаев даёт тексты с идентичной скелетной структурой, даже при разных персонах. Разные данные, один шаблон — иллюзия разнообразия.


🔍

Как исследовали

Идея была простой: дать тысяче персон заполнить психологический опросник — и посмотреть, получится ли похожий разброс, как у реальных людей. Исследователи сгенерировали 1 144 уникальных персоны по 26 измерениям (пол, возраст, страна, политика, хобби и т.д.) и прогнали каждую через три инструмента на десяти моделях: тест личности Big Five (44 вопроса с рейтинговой шкалой), 131 сценарий моральных суждений, и свободные самопрезентации.

Сравнивали с реальными данными: 2 058 человек из психологического датасета Twin-2K500 прошли тот же тест Big Five. Оказалось, что ни одна модель не приближается к человеческому распределению — ни по охвату пространства, ни по его внутренней сложности.

Самый контринтуитивный результат: модели, которые лучше всех "держат" персонаж (высокая корреляция с заданным профилем), производят самые карикатурные популяции. Разрыв между "высоко-экстравертными" и "низко-экстравертными" персонами у лучших моделей в 3–7 раз превышает тот, что наблюдается у реальных людей. Это как нарисовать "злодея" и "героя" в комиксе: понятно кто есть кто, но это не люди.

Ещё одна находка: один и тот же атрибут ведёт себя по-разному в зависимости от задачи. CoSER-Llama-8B на тесте личности выдаёт беднейший словарь ответов (почти все в среднем), а на моральных суждениях — богатейший среди всех моделей. Модель не "хуже" или "лучше" — она коллапсирует по-разному в зависимости от домена.


📄

Оригинал из исследования (ключевые находки)

Иерархия атрибутов в свободном тексте (Table 2):

Across all models, mention rates follow a consistent hierarchy: Gender (91%) > Country (90%) > Political (62%) > Age (36%) > Social Class (27%). No model mentions social class in more than 43% of introductions. When compressing a multi-dimensional persona into free text, every model we tested systematically discards socioeconomic background and age while preserving gender and nationality.

Контекст: Модели генерировали три самопрезентации от лица каждой из 1 144 персон. Исследователи считали, какой процент ответов содержит явное упоминание каждого атрибута персоны.


Ловушка точности (Fig. 4, правый график):

Every model with ρ > 0.9 [высокая корреляция с заданным профилем] produces d > 6 between High and Low target groups, far exceeding the d = 2 threshold considered "very large" in human personality research. The mechanism is straightforward: the easiest way to ensure High personas rank above Low is to push both to opposite extremes. Measured in isolation, persona fidelity is misleading — high ρ may simply indicate better caricature manufacturing.

Контекст: ρ — корреляция Спирмена между заданным целевым профилем и реальными ответами модели. d — эффект-размер Коэна, показывающий насколько сильно разошлись группы с противоположными целевыми значениями.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: "Проверка на карикатурность"

Если вы уже использовали персону и сомневаетесь — реалистичный ли результат:

Перечитай свой предыдущий ответ от лица {персонаж}.

Оцени: ты сыграл типичный стереотип или конкретного человека?
Где ты проявил крайность, хотя реальный человек, скорее всего, 
был бы менее однозначен?

Перепиши с большей неоднозначностью и противоречивостью — 
как думают живые люди, а не персонажи из учебника.

📌

🔧 Техника: явная иерархия атрибутов

Вместо плоского списка — явная структура важности:

ГЛАВНОЕ (определяет всё остальное): {атрибут 1}
ВАЖНОЕ (влияет на тему разговора): {атрибут 2}  
ФОНОВОЕ (просто контекст): {атрибут 3}, {атрибут 4}

Это напрямую противодействует механизму компрессии: модели проще решить что "главное", когда вы сказали это явно.


📌

🔧 Техника: "антикарикатурная" оговорка для аналитики

Если цель — анализ, а не художественный образ:

Важно: представляй не архетип и не крайний случай, 
а среднестатистического реального человека с этими характеристиками. 
Настоящие люди редко бывают идеально последовательны — 
добавь нюансы, сомнения, внутренние противоречия.

🔗

Ресурсы

Статья: "The Chameleon's Limit: Investigating Persona Collapse and Homogenization in Large Language Models" (preprint, under review)

Авторы: Yunze Xiao (CMU), Vivienne J. Zhang (UChicago), Chenghao Yang (UChicago), Ningshan Ma (MIT / 2077.ai), Weihao Xuan (UTokyo / RIKEN AIP), Jen-tse Huang (JHU)

Кодовая база: github.com/Algoroxyolo/PersonaCollapse

Сайт проекта: algoroxyolo.github.io/projects/chameleon-limit

Инструмент личности: BFI-44 (John & Srivastava, 1999) — Big Five Inventory

Данные о людях: Twin-2K500 (Toubia et al., 2025) — 2 058 реальных ответов на BFI-44


📋 Дайджест исследования

Ключевая суть

Парадокс: чем детальнее описываешь персону — тем хуже результат. Из 26 атрибутов модель реально строит ответ на 1-2. Пол выживает в 91% случаев, социальный класс — в 27%, возраст — в 36%. При этом чем точнее модель «играет роль» — тем сильнее карикатура: консерватор превращается в ультраконсерватора, интроверт — в затворника. Исследователи назвали это ловушкой точности. Метод «ключевой атрибут в центр» позволяет выбрать, какую характеристику модель возьмёт как основу — вместо случайной лотереи из вашего списка. Объявляешь одно главным, запрещаешь крайности — и получаешь человека с противоречиями вместо агитационного плаката.

Принцип работы

Стандартный подход: перечислить 10 атрибутов и надеяться, что модель удержит их все. Не удержит. Работает иначе: выбери ОДИН атрибут, критичный для задачи, объяви его центральным явно, всё остальное брось двумя строками как контекст. Модель достигает «верности роли» самым простым способом: раздвигает полюса до предела. Попросил экстраверта — получи гиперобщительного монстра. Чем дальше крайности — тем «чище» соответствие роли с точки зрения модели. Ловушка точности работает потому что точность исполнения и реализм — не одно и то же. Чтобы выбраться: поставь ключевой атрибут первым → повтори в конце → добавь запрет на крайности → получи человека, а не архетип.

Почему работает

Модель не «выбирает» атрибуты осознанно. Она тянется к тому, что сильнее всего связано с описанием в обучающих данных. Пол и страна — в каждом биографическом тексте. Социальный класс — редко и размыто. Поэтому список на 10 строк это всегда скрытая иерархия, и вы не знаете какая. Явное указание «для этого человека ГЛАВНОЕ — X» ломает автоматику: модель получает сигнал, за что держаться. Запрет крайностей частично нейтрализует ловушку точности — но не устраняет её полностью. Это улучшение, не лечение.

Когда применять

Проведение исследований потребителей — кастдев, анализ аудитории, фокус-группы — особенно когда важен социальный класс, возраст или специфический жизненный опыт, а не просто пол и страна. Создание нескольких точек зрения на продукт или решение — когда нужно реальное разнообразие, а не три версии одного среднестатистического человека. НЕ подходит для имитации общественного мнения в больших масштабах: все модели производят структурно однородные группы — разные данные, один шаблон. Это не замена реальному опросу.

Мини-рецепт

1. Выбери один атрибут: что критично для задачи? Не пол, не возраст по умолчанию — а то, что реально влияет на взгляд человека на твою тему.
2. Объяви его главным: начни с «Ты — человек, для которого ГЛАВНОЕ — [X]. Это центральное, всё остальное подчинено этому.»
3. Добавь контекст коротко: 2-3 детали одной строкой — возраст, город, занятие. Не список.
4. Запрети крайности: добавь «Отвечай не как архетип — как конкретный человек с личным опытом. Допускай противоречия, не доводи до крайностей.»
5. Для нескольких персон: меняй ключевой атрибут принципиально, не вариации одного типа. И явно запрети использовать пол или национальность как основу различий.

Примеры

[ПЛОХО] : Ты — 58-летняя женщина, швея из Иваново, низкий доход, не доверяешь банкам, интроверт, консерватор, среднее специальное образование. Что думаешь о приложении для самозанятых?
[ХОРОШО] : Ты — человек, для которого ГЛАВНОЕ — финансовая нестабильность и недоверие к банковским продуктам на основе личного опыта. Это центральное в твоём характере, всё остальное подчинено этому. Дополнительный контекст: около 55-60 лет, живёшь не в Москве, небольшой доход от ручного труда. Отвечай не как архетип — как конкретный человек с конкретным опытом. Не доводи мнение до крайностей, реальные люди думают неоднозначно. Что думаешь о приложении для управления доходами самозанятых?
Источник: The Chameleon's Limit: Investigating Persona Collapse and Homogenization in Large Language Models
ArXiv ID: 2604.24698 | Сгенерировано: 2026-04-28 06:23

Проблемы LLM

ПроблемаСутьКак обойти
Модель теряет большинство атрибутов персоныТы описываешь персонажа через 5–10+ характеристик. Модель сжимает список до 1–2. Пол и страна — почти всегда выживают. Возраст остаётся редко. Социальный класс исчезает почти всегда. Ты просишь "пожилого рабочего из провинции" — получаешь просто "женщину" или "русского". Атрибуты, важные для твоей задачи, тонут в общем спискеНе перечисляй атрибуты списком. Поставь нужный атрибут в начало. Сделай его явным центром: "Главное в этом человеке — {атрибут}. Всё остальное подчинено этому." Повтори ключевой атрибут в конце запроса
Несколько персон дают структурно одинаковые ответыПросишь 4 разных персонажа — получаешь 4 версии одного человека. Разные данные, одинаковый скелет мышления. Иллюзия разнообразия. Особенно опасно в исследовательских задачах: кажется, что собрал разные точки зрения, а на деле — однуНе задавай персон через демографию (пол, возраст, город). Строй разнообразие через принципиально разные ценности или опыт: страх потерь vs. тяга к риску, доверие к институтам vs. недоверие. Используй одну главную характеристику на персонажа, а не список

Методы

МетодСуть
Центральный атрибут вместо списка характеристикВместо перечня "45 лет, мужчина, консерватор, интроверт..." пиши: "Главное в этом человеке — {ключевой атрибут}. Это определяет, как он смотрит на {тему}." Добавь 2–3 второстепенных детали отдельно, как контекст. Закончи запрет: "Отвечай как конкретный человек с личным опытом, не как архетип. Не доводи мнение до крайностей — реальные люди думают противоречиво." Почему работает: Модель строит ответ от самых заметных маркеров. Если явно назначить центральный, она ориентируется на него, а не ищет "самый громкий" из списка. Запрет крайностей частично нейтрализует механизм, описанный ниже. Когда применять: роль заказчика, пользователя, эксперта. Когда не спасает: структурная однородность при генерации 5+ персон всё равно остаётся

Тезисы

ТезисКомментарий
Атрибуты персоны выживают по иерархии: пол и страна — почти всегда, класс и возраст — почти никогдаМодель опирается на то, что чаще встречалось в обучающих текстах. Пол и национальность — самые частые маркеры. Социальный класс и возраст — редкие и размытые. Поэтому они вытесняются автоматически. Это не случайность конкретного запроса — это устойчивая закономерность. Применяй: если твоя задача требует классовой, возрастной или профессиональной перспективы — ставь этот атрибут явным центром. Иначе он потонет
📖 Простыми словами

The Chameleon's Limit: Investigating Persona Collapse and Homogenization inLargeLanguageModels

arXiv: 2604.24698

LLM не умеют в глубокую актерскую игру, как бы нам этого ни хотелось. Когда ты просишь модель вжиться в роль, она работает не как профессиональный актер, а как ленивый карикатурист. Фундаментальная механика тут проста: у нейронки есть лимит внимания на атрибуты. Если ты закидываешь в нее десяток характеристик персонажа, она не синтезирует сложную личность, а просто выбирает пару самых «громких» тегов и забивает на остальное. Происходит коллапс персоны, где индивидуальность схлопывается до плоского шаблона.

Это как если бы ты попросил друга изобразить «грустного французского мима-вегана, который тайно любит шансон и боится пауков», а он просто надел берет и начал молчать. Формально он мим, но вся тонкая настройка улетела в мусорку. Модель видит твое полотно текста, пугается сложности и выдает усредненный стереотип, потому что так проще и статистически безопаснее.

Исследователи выяснили, что в 90% случаев модель опирается только на пол и страну. Все остальное — возраст, профессия, политические взгляды или черты характера — просто игнорируется. Если ты прописал «45-летнего консервативного рабочего из Омска», ты получишь просто «мужчину из России». Возраст и социальный класс исчезают почти всегда, превращая твоего персонажа в безликого бота, который говорит общими фразами. Это не баг конкретной модели, это системная гомогенизация ответов, когда разные личности начинают звучать одинаково.

Принцип универсален: это касается не только ролевых игр, но и любого кастдева или тестирования гипотез через AI. Ты можешь создать десять «разных» профилей пользователей для своего финтеха — от зумера-фрилансера до пенсионерки-швеи — но на выходе получишь мнение одного и того же «среднего человека из интернета». Синтетические данные лажают, если их пытаться усложнить. Вместо глубоких инсайтов ты получаешь эхо-камеру собственных стереотипов, которые модель просто отзеркалила назад.

Короче: не пытайся скормить нейронке детальную биографию в надежде на точность — она все равно все упростит до примитива. Чем больше атрибутов, тем выше шанс коллапса. Если тебе реально нужно разное мнение, делай промпты максимально короткими и фокусируйся на одной, самой важной черте. Либо смирись с тем, что твой «сложный персонаж» — это просто картонная фигура, которая поддакивает твоим ожиданиям. Кто верит в глубину AI-персон, тот просто плохо проверял их на вшивость.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с