TL;DR
PersonaFuse — фреймворк post-training для LLM, который учит модель менять стиль общения в зависимости от ситуации. В основе — психологические теории: Big Five (5 черт личности: Открытость, Добросовестность, Экстраверсия, Доброжелательность, Нейротизм) и Trait Activation Theory (разные черты активируются в разных ситуациях). Модель анализирует запрос, определяет какие черты личности нужны для ответа, и генерирует реплику с нужным характером.
Главная находка: Современные LLM отвечают шаблонно независимо от контекста. GPT-4o одинаково общается и с тревожным пользователем ("чувствую тревогу"), и в формальных дебатах — в обоих случаях выдаёт сухой список пунктов без эмоциональной настройки. Проблема глубже чем кажется: даже если попросить модель "быть эмпатичной" через промпт или fine-tuning, это либо не работает стабильно (промпт), либо ломает общие способности модели (fine-tuning). Нужна ситуационная адаптация, а не статичная роль.
Суть метода: PersonaFuse использует архитектуру Mixture-of-Experts с 10 экспертами (по 2 на каждую черту Big Five: высокая/низкая). Динамический роутер анализирует запрос, определяет какие эксперты активировать, и смешивает их ответы. Обучение через специальный процесс Persona-CoT (Chain of Thought с рассуждением о личности): модель сначала определяет социальные и задачные сигналы в запросе, потом выбирает нужные черты личности, потом генерирует ответ. Три этапа обучения: разогрев экспертов раздельно → обучение роутера → совместная оптимизация.
Схема метода
Архитектура PersonaFuse (post-training система):
КОМПОНЕНТЫ:
1. 10 LoRA-экспертов (High/Low по каждой черте Big Five)
2. Роутер с персона-энкодером (анализирует запрос → выбирает экспертов)
3. Базовая LLM (заморожена)
INFERENCE:
Запрос → Персона-энкодер → Веса экспертов → Mixture of Experts → Ответ
Процесс Persona-CoT (генерация обучающих данных):
ШАГ 1: Анализ сигналов ситуации
→ Social cues (тон, эмоции, нормы)
→ Task cues (сложность, навыки, цель)
ШАГ 2: Определение черт личности
→ Какие черты нужны для этой ситуации?
→ Вектор активации [O, C, E, A, N] где каждая черта high/low
ШАГ 3: Генерация ответа
→ Используя определённые черты как контекст
Обучение (3 этапа, последовательно):
ЭТАП 1: LoRA Warmup
→ Каждый эксперт обучается отдельно на своём стиле
ЭТАП 2: Router Training
→ Роутер учится выбирать правильных экспертов
→ Contrastive loss: запрос близко к нужным экспертам, далеко от ненужных
ЭТАП 3: Joint Training
→ Совместная оптимизация роутера и экспертов
Extractable Principles для применения в чате
⚠️ Важно: PersonaFuse — это исследовательский фреймворк, требующий post-training. Напрямую в чате его не применить. Но принципы можно извлечь и использовать через промптинг.
Принцип 1: Persona-CoT в промпте
Вместо "просто ответь", попроси LLM явно прорассуждать о нужной личности:
Прежде чем ответить:
1. Определи social cues (тон, эмоции пользователя)
2. Определи task cues (что требует задача)
3. Какие черты Big Five нужны? (Openness, Conscientiousness,
Extraversion, Agreeableness, Neuroticism - высокие/низкие)
4. Ответь с учётом этих черт
Принцип 2: Trait Activation Theory
Ключевая идея: Разные ситуации требуют разных черт личности. Не универсальная "дружелюбная" роль, а ситуационная активация.
Примеры из исследования (Table 1):
- Креативная задача: высокая Openness, низкая Conscientiousness
- Математика: высокая Conscientiousness, высокая Extraversion
- Психотерапия: высокая Agreeableness, высокая Conscientiousness, низкая Neuroticism
- Клиентский сервис: высокая Conscientiousness, высокая Agreeableness
Принцип 3: Анализ через cues
Перед промптом задай себе:
- Social cues: Какое эмоциональное состояние у пользователя? Какие нормы общения?
- Task cues: Что требует задача - точность? креатив? эмпатию?
Пример применения (адаптация для промптинга)
Задача: Написать ответ клиенту интернет-магазина, который возмущён задержкой заказа на неделю. Нужно сохранить клиента и решить проблему.
Промпт с Persona-CoT:
Ситуация: Клиент заказал товар с доставкой 3 дня, прошла неделя,
заказ всё ещё в пути. Он написал раздражённое письмо с угрозой
оставить негативный отзыв.
Прежде чем написать ответ, проанализируй:
1. SOCIAL CUES (эмоциональный контекст):
- Какое состояние клиента?
- Что ему нужно услышать?
2. TASK CUES (что требует задача):
- Объяснить причину задержки
- Предложить компенсацию
- Сохранить лояльность
3. НУЖНЫЕ ЧЕРТЫ ЛИЧНОСТИ (Big Five):
- Openness (открытость новому): ?
- Conscientiousness (добросовестность): ?
- Extraversion (экстраверсия): ?
- Agreeableness (доброжелательность): ?
- Neuroticism (невротизм): ?
Укажи high/low для каждой черты и объясни почему.
4. ОТВЕТ КЛИЕНТУ:
Напиши письмо с учётом определённых черт.
Результат:
Модель сначала покажет рассуждение:
- Social cues: раздражение, разочарование, нужна эмпатия и признание проблемы
- Task cues: объяснить без оправданий, предложить решение
- Черты: высокая Agreeableness (дружелюбие, эмпатия), высокая Conscientiousness (ответственность, конкретика), низкая Neuroticism (спокойствие, без паники)
Потом сгенерирует письмо, где:
- Сначала искреннее извинение (Agreeableness)
- Конкретная причина задержки без "воды" (Conscientiousness)
- Чёткий план действий с датами (Conscientiousness)
- Компенсация как жест доброй воли (Agreeableness)
- Спокойный профессиональный тон (низкая Neuroticism)
Почему это работает
Слабость LLM: Модели обучены генерировать грамматически правильный текст, но не адаптировать стиль и тон под ситуацию. Когда спрашиваешь "как дела?" у тревожного человека и "дай аргументы за капитализм" в дебатах — модель не понимает разницу в требуемой личности. Она одинаково выдаст структурированный список, потому что так обучена на инструкциях.
Сильная сторона LLM: Модели отлично следуют явным структурированным инструкциям. Если в промпте есть шаги рассуждения (как в Chain-of-Thought), модель их выполняет и генерирует лучшие ответы. Она может симулировать разные стили, если явно указать какой стиль нужен.
Как PersonaFuse использует это: Вместо абстрактного "будь эмпатичным", метод:
- Заставляет модель явно проанализировать ситуацию (social/task cues)
- Выбрать нужные черты личности из Big Five
- Сгенерировать ответ с этими чертами как контекстом
Рассуждение делает выбор осознанным. Модель не гадает "быть ли дружелюбной", а решает на основе анализа.
Рычаги управления (что можно менять в адаптации для промптинга):
- Глубина анализа cues → Для простых задач можно пропустить, для сложных — детализировать
- Набор черт Big Five → Добавить свои критерии (например, формальность, юмор) или оставить только релевантные черты
- Явность инструкций → Убрать "объясни почему" если нужен только результат, оставить для понимания логики
- Структура вывода → Попросить сначала черты в виде таблицы, потом ответ — или всё слитно
Шаблон промпта (адаптация Persona-CoT)
Задача: {описание ситуации или запрос пользователя}
Прежде чем ответить, выполни анализ личности:
1. SOCIAL CUES (социальные сигналы):
- Эмоциональное состояние собеседника
- Тон и стиль общения
- Социальные нормы контекста
2. TASK CUES (задачные сигналы):
- Что требует задача (точность? креатив? эмпатия?)
- Уровень сложности
- Цель взаимодействия
3. АКТИВАЦИЯ ЧЕРТ (Big Five):
Для каждой черты укажи high/low и объясни:
- Openness (открытость новому):
- Conscientiousness (добросовестность):
- Extraversion (экстраверсия):
- Agreeableness (доброжелательность):
- Neuroticism (невротизм):
4. ОТВЕТ:
Сформулируй ответ, отражающий выбранные черты личности.
Что подставлять:
{описание ситуации}— конкретный контекст: письмо клиента, дебаты, консультация и т.д.
Быстрая адаптация шаблона:
🚀 Быстрый старт — вставь в чат:
Вот метод Persona-CoT для адаптации стиля ответа.
Адаптируй под мою задачу: [твоя задача].
[вставить шаблон выше]
LLM спросит про специфику твоей ситуации и заполнит плейсхолдеры под конкретный кейс. Она возьмёт структуру (анализ cues → выбор черт → ответ) и применит к твоей задаче.
Ограничения
⚠️ Исследовательский фреймворк: PersonaFuse как система требует post-training (обучение MoE, роутера). Обычному пользователю недоступна. Применимы только принципы через промптинг.
⚠️ Промптинг не гарантирует качество: Адаптация через промпт менее надёжна чем обученная система. Модель может игнорировать инструкции или выполнять формально. PersonaFuse показывает что возможно при правильном обучении, но промпт — приблизительная имитация.
⚠️ Зависимость от базовой модели: Слабые модели плохо следуют сложным инструкциям. Persona-CoT требует способности к рассуждению — работает лучше на GPT-4, Claude, чем на слабых моделях.
⚠️ Субъективность черт: Big Five — упрощённая модель личности. Реальное общение сложнее 5 шкал. Метод даёт фреймворк мышления, но не универсальное решение.
⚠️ Оверфиттинг на теорию: Иногда "правильные" черты по Big Five дают неестественный результат. Например, высокая Conscientiousness в креативной задаче может убить спонтанность. Теория — ориентир, не догма.
Как исследовали
Команда взяла Llama-3.1-8B и обучила PersonaFuse на 98,838 примерах, сгенерированных через Persona-CoT с помощью Falcon3-10B-Instruct. Данные собрали из публичных датасетов реальных диалогов (ShareGPT, WildChat и др.). Сравнивали с несколькими baseline:
- Direct-finetuned — обычный fine-tuning без Persona-CoT
- Human-Like-finetuned — обучение на "дружелюбном" стиле (Çalık & Akkuş, 2025)
- Random Route 1/2/5 — та же архитектура MoE, но случайный выбор экспертов вместо роутера
Проверяли на трёх фронтах:
- Социально-эмоциональный интеллект (EmoBench, EQ-Bench, ToMBench): PersonaFuse победил с огромным отрывом. На EmoBench улучшение +37.9%, на EQ-Bench +69% (!). Это говорит о том, что явное рассуждение о личности через Persona-CoT даёт модели понимание эмоционального контекста, которого нет у baseline.
- Общие способности (GPQA, GSM8k, Arena-Hard): Обычно fine-tuning на одну задачу убивает общие навыки (catastrophic forgetting). Но PersonaFuse не деградировал — на GPQA даже лучше baseline, на математике (GSM8k) примерно равно. Почему? Потому что эксперты обучаются аддитивно (LoRA добавляет параметры, не перезаписывает), а базовая LLM заморожена.
- Безопасность (SafetyBench): PersonaFuse безопаснее baseline по всем 7 измерениям (оскорбления, предвзятость, этика и т.д.). Это неожиданно, но логично: эмпатичная модель лучше понимает границы. Она не просто "добрая", она анализирует social cues и понимает когда ответ может навредить.
Человеческая оценка против GPT-4o, GPT-3.5, DeepSeek: В эмоциональных диалогах PersonaFuse выиграл у GPT-3.5 в 73% случаев, у DeepSeek в 66.7%, у GPT-4o в 57.9%. При этом PersonaFuse — всего 8B параметров против ~175B+ у GPT-4o. В логических задачах проигрывает (особенно GPT-4o), но для модели такого размера результат впечатляющий.
Самое интересное открытие: Random Route (случайный выбор экспертов) провалился даже при 5 случайных экспертах. Это доказывает, что роутер критичен — не просто "больше экспертов = лучше", а правильные эксперты для ситуации. Без ситуационного анализа MoE не работает.
Вывод для практики: Теория (Big Five + Trait Activation) не просто академическая обёртка — она реально улучшает результаты. Модель научилась думать о контексте перед ответом, а не генерировать на автопилоте.
Ресурсы
Оригинальная работа: "PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions"
Авторы: Yixuan Tang, Yi Yang (The Hong Kong University of Science and Technology), Ahmed Abbasi (University of Notre Dame)
Теоретическая база:
- McCrae & John (1992) — Five-Factor Model (Big Five)
- Tett & Burnett (2003) — Trait Activation Theory
- Chen et al. (2024) — Persona prompting methods
- Wei et al. (2022) — Chain-of-Thought prompting
Связанные работы:
- Human-Like Finetuned LLMs (Çalık & Akkuş, 2025) — fine-tuning на дружелюбный стиль
- P-React (Dan et al., 2025) — MoE для Big Five, но без ситуационной адаптации
- PROPER (Zhang et al., 2025) — персонализация через MoE, но статичные группы пользователей
