3,583 papers
arXiv:2509.07370 78 9 сент. 2025 г. FREE

PersonaFuse: динамическая адаптация личности LLM через ситуационный анализ

КЛЮЧЕВАЯ СУТЬ
GPT-4o одинаково отвечает тревожному пользователю и в формальных дебатах — в обоих случаях сухой список пунктов. LLM не умеют адаптировать личность под ситуацию. PersonaFuse позволяет модели менять стиль общения в зависимости от контекста — от эмпатичного консультанта до строгого аналитика. Фишка: модель сначала анализирует социальные и задачные сигналы в запросе, потом выбирает нужные черты личности, потом генерирует ответ. Для промптинга адаптируется как Persona-CoT — явное рассуждение о том, какой характер нужен здесь.
Адаптировать под запрос

TL;DR

PersonaFuse — фреймворк post-training для LLM, который учит модель менять стиль общения в зависимости от ситуации. В основе — психологические теории: Big Five (5 черт личности: Открытость, Добросовестность, Экстраверсия, Доброжелательность, Нейротизм) и Trait Activation Theory (разные черты активируются в разных ситуациях). Модель анализирует запрос, определяет какие черты личности нужны для ответа, и генерирует реплику с нужным характером.

Главная находка: Современные LLM отвечают шаблонно независимо от контекста. GPT-4o одинаково общается и с тревожным пользователем ("чувствую тревогу"), и в формальных дебатах — в обоих случаях выдаёт сухой список пунктов без эмоциональной настройки. Проблема глубже чем кажется: даже если попросить модель "быть эмпатичной" через промпт или fine-tuning, это либо не работает стабильно (промпт), либо ломает общие способности модели (fine-tuning). Нужна ситуационная адаптация, а не статичная роль.

Суть метода: PersonaFuse использует архитектуру Mixture-of-Experts с 10 экспертами (по 2 на каждую черту Big Five: высокая/низкая). Динамический роутер анализирует запрос, определяет какие эксперты активировать, и смешивает их ответы. Обучение через специальный процесс Persona-CoT (Chain of Thought с рассуждением о личности): модель сначала определяет социальные и задачные сигналы в запросе, потом выбирает нужные черты личности, потом генерирует ответ. Три этапа обучения: разогрев экспертов раздельно → обучение роутера → совместная оптимизация.


🔬

Схема метода

Архитектура PersonaFuse (post-training система):

КОМПОНЕНТЫ:
1. 10 LoRA-экспертов (High/Low по каждой черте Big Five)
2. Роутер с персона-энкодером (анализирует запрос → выбирает экспертов)
3. Базовая LLM (заморожена)

INFERENCE:
Запрос → Персона-энкодер → Веса экспертов → Mixture of Experts → Ответ

Процесс Persona-CoT (генерация обучающих данных):

ШАГ 1: Анализ сигналов ситуации
 → Social cues (тон, эмоции, нормы)
 → Task cues (сложность, навыки, цель)

ШАГ 2: Определение черт личности
 → Какие черты нужны для этой ситуации?
 → Вектор активации [O, C, E, A, N] где каждая черта high/low

ШАГ 3: Генерация ответа
 → Используя определённые черты как контекст

Обучение (3 этапа, последовательно):

ЭТАП 1: LoRA Warmup
 → Каждый эксперт обучается отдельно на своём стиле

ЭТАП 2: Router Training 
 → Роутер учится выбирать правильных экспертов
 → Contrastive loss: запрос близко к нужным экспертам, далеко от ненужных

ЭТАП 3: Joint Training
 → Совместная оптимизация роутера и экспертов

📌

Extractable Principles для применения в чате

⚠️ Важно: PersonaFuse — это исследовательский фреймворк, требующий post-training. Напрямую в чате его не применить. Но принципы можно извлечь и использовать через промптинг.

📋

Принцип 1: Persona-CoT в промпте

Вместо "просто ответь", попроси LLM явно прорассуждать о нужной личности:

Прежде чем ответить:
1. Определи social cues (тон, эмоции пользователя)
2. Определи task cues (что требует задача)
3. Какие черты Big Five нужны? (Openness, Conscientiousness, 
 Extraversion, Agreeableness, Neuroticism - высокие/низкие)
4. Ответь с учётом этих черт
📌

Принцип 2: Trait Activation Theory

Ключевая идея: Разные ситуации требуют разных черт личности. Не универсальная "дружелюбная" роль, а ситуационная активация.

Примеры из исследования (Table 1):

  • Креативная задача: высокая Openness, низкая Conscientiousness
  • Математика: высокая Conscientiousness, высокая Extraversion
  • Психотерапия: высокая Agreeableness, высокая Conscientiousness, низкая Neuroticism
  • Клиентский сервис: высокая Conscientiousness, высокая Agreeableness
📌

Принцип 3: Анализ через cues

Перед промптом задай себе:

  • Social cues: Какое эмоциональное состояние у пользователя? Какие нормы общения?
  • Task cues: Что требует задача - точность? креатив? эмпатию?

🚀

Пример применения (адаптация для промптинга)

Задача: Написать ответ клиенту интернет-магазина, который возмущён задержкой заказа на неделю. Нужно сохранить клиента и решить проблему.

Промпт с Persona-CoT:

Ситуация: Клиент заказал товар с доставкой 3 дня, прошла неделя, 
заказ всё ещё в пути. Он написал раздражённое письмо с угрозой 
оставить негативный отзыв.

Прежде чем написать ответ, проанализируй:

1. SOCIAL CUES (эмоциональный контекст):
 - Какое состояние клиента?
 - Что ему нужно услышать?

2. TASK CUES (что требует задача):
 - Объяснить причину задержки
 - Предложить компенсацию
 - Сохранить лояльность

3. НУЖНЫЕ ЧЕРТЫ ЛИЧНОСТИ (Big Five):
 - Openness (открытость новому): ?
 - Conscientiousness (добросовестность): ?
 - Extraversion (экстраверсия): ?
 - Agreeableness (доброжелательность): ?
 - Neuroticism (невротизм): ?
 
 Укажи high/low для каждой черты и объясни почему.

4. ОТВЕТ КЛИЕНТУ:
 Напиши письмо с учётом определённых черт.

Результат:

Модель сначала покажет рассуждение:

  • Social cues: раздражение, разочарование, нужна эмпатия и признание проблемы
  • Task cues: объяснить без оправданий, предложить решение
  • Черты: высокая Agreeableness (дружелюбие, эмпатия), высокая Conscientiousness (ответственность, конкретика), низкая Neuroticism (спокойствие, без паники)

Потом сгенерирует письмо, где:

  • Сначала искреннее извинение (Agreeableness)
  • Конкретная причина задержки без "воды" (Conscientiousness)
  • Чёткий план действий с датами (Conscientiousness)
  • Компенсация как жест доброй воли (Agreeableness)
  • Спокойный профессиональный тон (низкая Neuroticism)

🧠

Почему это работает

Слабость LLM: Модели обучены генерировать грамматически правильный текст, но не адаптировать стиль и тон под ситуацию. Когда спрашиваешь "как дела?" у тревожного человека и "дай аргументы за капитализм" в дебатах — модель не понимает разницу в требуемой личности. Она одинаково выдаст структурированный список, потому что так обучена на инструкциях.

Сильная сторона LLM: Модели отлично следуют явным структурированным инструкциям. Если в промпте есть шаги рассуждения (как в Chain-of-Thought), модель их выполняет и генерирует лучшие ответы. Она может симулировать разные стили, если явно указать какой стиль нужен.

Как PersonaFuse использует это: Вместо абстрактного "будь эмпатичным", метод:

  1. Заставляет модель явно проанализировать ситуацию (social/task cues)
  2. Выбрать нужные черты личности из Big Five
  3. Сгенерировать ответ с этими чертами как контекстом

Рассуждение делает выбор осознанным. Модель не гадает "быть ли дружелюбной", а решает на основе анализа.

Рычаги управления (что можно менять в адаптации для промптинга):

  • Глубина анализа cues → Для простых задач можно пропустить, для сложных — детализировать
  • Набор черт Big Five → Добавить свои критерии (например, формальность, юмор) или оставить только релевантные черты
  • Явность инструкций → Убрать "объясни почему" если нужен только результат, оставить для понимания логики
  • Структура вывода → Попросить сначала черты в виде таблицы, потом ответ — или всё слитно

📋

Шаблон промпта (адаптация Persona-CoT)

Задача: {описание ситуации или запрос пользователя}

Прежде чем ответить, выполни анализ личности:

1. SOCIAL CUES (социальные сигналы):
 - Эмоциональное состояние собеседника
 - Тон и стиль общения
 - Социальные нормы контекста

2. TASK CUES (задачные сигналы):
 - Что требует задача (точность? креатив? эмпатия?)
 - Уровень сложности
 - Цель взаимодействия

3. АКТИВАЦИЯ ЧЕРТ (Big Five):
 Для каждой черты укажи high/low и объясни:
 
 - Openness (открытость новому): 
 - Conscientiousness (добросовестность):
 - Extraversion (экстраверсия):
 - Agreeableness (доброжелательность):
 - Neuroticism (невротизм):

4. ОТВЕТ:
 Сформулируй ответ, отражающий выбранные черты личности.

Что подставлять:

  • {описание ситуации} — конкретный контекст: письмо клиента, дебаты, консультация и т.д.

Быстрая адаптация шаблона:

🚀 Быстрый старт — вставь в чат:

Вот метод Persona-CoT для адаптации стиля ответа. 
Адаптируй под мою задачу: [твоя задача]. 

[вставить шаблон выше]

LLM спросит про специфику твоей ситуации и заполнит плейсхолдеры под конкретный кейс. Она возьмёт структуру (анализ cues → выбор черт → ответ) и применит к твоей задаче.


⚠️

Ограничения

⚠️ Исследовательский фреймворк: PersonaFuse как система требует post-training (обучение MoE, роутера). Обычному пользователю недоступна. Применимы только принципы через промптинг.

⚠️ Промптинг не гарантирует качество: Адаптация через промпт менее надёжна чем обученная система. Модель может игнорировать инструкции или выполнять формально. PersonaFuse показывает что возможно при правильном обучении, но промпт — приблизительная имитация.

⚠️ Зависимость от базовой модели: Слабые модели плохо следуют сложным инструкциям. Persona-CoT требует способности к рассуждению — работает лучше на GPT-4, Claude, чем на слабых моделях.

⚠️ Субъективность черт: Big Five — упрощённая модель личности. Реальное общение сложнее 5 шкал. Метод даёт фреймворк мышления, но не универсальное решение.

⚠️ Оверфиттинг на теорию: Иногда "правильные" черты по Big Five дают неестественный результат. Например, высокая Conscientiousness в креативной задаче может убить спонтанность. Теория — ориентир, не догма.


🔍

Как исследовали

Команда взяла Llama-3.1-8B и обучила PersonaFuse на 98,838 примерах, сгенерированных через Persona-CoT с помощью Falcon3-10B-Instruct. Данные собрали из публичных датасетов реальных диалогов (ShareGPT, WildChat и др.). Сравнивали с несколькими baseline:

  • Direct-finetuned — обычный fine-tuning без Persona-CoT
  • Human-Like-finetuned — обучение на "дружелюбном" стиле (Çalık & Akkuş, 2025)
  • Random Route 1/2/5 — та же архитектура MoE, но случайный выбор экспертов вместо роутера

Проверяли на трёх фронтах:

  1. Социально-эмоциональный интеллект (EmoBench, EQ-Bench, ToMBench): PersonaFuse победил с огромным отрывом. На EmoBench улучшение +37.9%, на EQ-Bench +69% (!). Это говорит о том, что явное рассуждение о личности через Persona-CoT даёт модели понимание эмоционального контекста, которого нет у baseline.
  2. Общие способности (GPQA, GSM8k, Arena-Hard): Обычно fine-tuning на одну задачу убивает общие навыки (catastrophic forgetting). Но PersonaFuse не деградировал — на GPQA даже лучше baseline, на математике (GSM8k) примерно равно. Почему? Потому что эксперты обучаются аддитивно (LoRA добавляет параметры, не перезаписывает), а базовая LLM заморожена.
  3. Безопасность (SafetyBench): PersonaFuse безопаснее baseline по всем 7 измерениям (оскорбления, предвзятость, этика и т.д.). Это неожиданно, но логично: эмпатичная модель лучше понимает границы. Она не просто "добрая", она анализирует social cues и понимает когда ответ может навредить.

Человеческая оценка против GPT-4o, GPT-3.5, DeepSeek: В эмоциональных диалогах PersonaFuse выиграл у GPT-3.5 в 73% случаев, у DeepSeek в 66.7%, у GPT-4o в 57.9%. При этом PersonaFuse — всего 8B параметров против ~175B+ у GPT-4o. В логических задачах проигрывает (особенно GPT-4o), но для модели такого размера результат впечатляющий.

Самое интересное открытие: Random Route (случайный выбор экспертов) провалился даже при 5 случайных экспертах. Это доказывает, что роутер критичен — не просто "больше экспертов = лучше", а правильные эксперты для ситуации. Без ситуационного анализа MoE не работает.

Вывод для практики: Теория (Big Five + Trait Activation) не просто академическая обёртка — она реально улучшает результаты. Модель научилась думать о контексте перед ответом, а не генерировать на автопилоте.


🔗

Ресурсы

Оригинальная работа: "PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions"

Авторы: Yixuan Tang, Yi Yang (The Hong Kong University of Science and Technology), Ahmed Abbasi (University of Notre Dame)

Теоретическая база:

  • McCrae & John (1992) — Five-Factor Model (Big Five)
  • Tett & Burnett (2003) — Trait Activation Theory
  • Chen et al. (2024) — Persona prompting methods
  • Wei et al. (2022) — Chain-of-Thought prompting

Связанные работы:

  • Human-Like Finetuned LLMs (Çalık & Akkuş, 2025) — fine-tuning на дружелюбный стиль
  • P-React (Dan et al., 2025) — MoE для Big Five, но без ситуационной адаптации
  • PROPER (Zhang et al., 2025) — персонализация через MoE, но статичные группы пользователей

📋 Дайджест исследования

Ключевая суть

GPT-4o одинаково отвечает тревожному пользователю и в формальных дебатах — в обоих случаях сухой список пунктов. LLM не умеют адаптировать личность под ситуацию. PersonaFuse позволяет модели менять стиль общения в зависимости от контекста — от эмпатичного консультанта до строгого аналитика. Фишка: модель сначала анализирует социальные и задачные сигналы в запросе, потом выбирает нужные черты личности, потом генерирует ответ. Для промптинга адаптируется как Persona-CoT — явное рассуждение о том, какой характер нужен здесь.

Принцип работы

Метод заставляет модель явно прорассуждать о нужной личности перед ответом. Три шага: анализируешь эмоции и тон пользователя (социальные сигналы), определяешь что требует задача (задачные сигналы), выбираешь черты личности под эту ситуацию. Психотерапия требует высокой доброжелательности и низкого невротизма. Математика — высокой добросовестности. Креативная задача — высокой открытости новому. Модель использует Big Five (5 черт личности: Открытость, Добросовестность, Экстраверсия, Доброжелательность, Нейротизм) — для каждой ситуации активируются разные черты.

Почему работает

LLM обучены создавать грамматически правильный текст, но не адаптировать стиль под ситуацию. Когда спрашиваешь 'как дела?' у тревожного человека — модель не понимает что здесь нужна эмпатия, а в дебатах — аргументация. Она одинаково выдаст структурированный список. Явное рассуждение о чертах личности даёт модели структуру выбора — не гадать 'быть ли дружелюбной', а решать на основе анализа. Исследование показало: даже промпт 'будь эмпатичным' работает нестабильно, а Persona-CoT делает адаптацию осознанной.

Когда применять

Клиентский сервис → для ответов на жалобы или запросы, особенно когда нужно сочетать эмпатию и конкретику. Терапевтические чат-боты → для эмоциональной поддержки. Креативные задачи → для генерации идей когда важна спонтанность, а не структура. Персонализированное обучение → для адаптации тона под эмоциональное состояние студента. НЕ подходит для задач где стиль личности не важен — чистые вычисления, перевод текста, извлечение фактов.

Мини-рецепт

1. Опиши ситуацию: <ситуация>Клиент возмущён задержкой заказа на неделю, угрожает негативным отзывом
2. Анализ социальных сигналов: Попроси модель определить эмоциональное состояние пользователя, тон, нормы общения
3. Анализ задачных сигналов: Что требует задача - точность? креатив? эмпатию? Цель взаимодействия?
4. Выбор черт личности: Для каждой черты Big Five (Openness/открытость, Conscientiousness/добросовестность, Extraversion/экстраверсия, Agreeableness/доброжелательность, Neuroticism/невротизм) попроси указать high/low и объяснить почему
5. Генерация ответа: Модель формулирует ответ с учётом выбранных черт

Примеры

[ПЛОХО] : Напиши ответ клиенту по задержке заказа эмпатично
[ХОРОШО] : Ситуация: Клиент возмущён задержкой заказа на неделю. Прежде чем ответить, проанализируй: 1. Социальные сигналы: какое состояние клиента? что ему нужно услышать? 2. Задачные сигналы: объяснить причину, предложить компенсацию, сохранить лояльность 3. Big Five черты (укажи high/low для каждой и объясни): - Agreeableness (доброжелательность): ? - Conscientiousness (добросовестность): ? - Neuroticism (невротизм): ? 4. Напиши письмо клиенту с учётом этих черт
Источник: PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions
ArXiv ID: 2509.07370 | Сгенерировано: 2026-01-12 02:08

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с