TL;DR
Personality-Driven Preference Alignment — подход, который использует черты личности (модель OCEAN: открытость, сознательность, экстраверсия, доброжелательность, нейротизм) как стабильный сигнал для отбора релевантных предпочтений. Вместо того чтобы кормить модель всеми упомянутыми предпочтениями пользователя, метод сначала выводит профиль личности из диалога, затем подставляет в промпт только те предпочтения, которые совпадают с чертами личности для данной задачи. Исследователи показали: если добавить к каждому предпочтению метку черты личности (например, "высокая открытость"), точность ответов подскакивает с 29% до 76%.
Главная проблема: модели плохо следуют предпочтениям в длинных диалогах — точность падает ниже 10% уже после 10 реплик. Причина: предпочтения шумные, неполные, противоречивые. Модель теряется: какое из 20 предпочтений применить к текущему вопросу? Или применяет предпочтение про кино к вопросу про путешествия, потому что оно упоминалось последним. Личность решает проблему фильтрации: она устойчива во времени и помогает отбросить нерелевантные предпочтения даже при большом объёме истории.
Суть метода: при ответе на вопрос модель получает не все предпочтения подряд, а только те, которые выражают ту же черту личности, что и текущая задача. Три варианта применения: (1) Few-shot + метки черт — к каждому предпочтению добавляется метка "высокая conscientiousness" или "низкая neuroticism"; (2) Reminder — простая инструкция "учти личность пользователя при ответе" без меток; (3) RAG-подход — автоматический поиск похожих по личности предпочтений через retriever. Самый простой — Reminder, работает почти так же хорошо как явные метки (67% vs 76%).
Схема метода
Вариант 1: Few-shot + метки черт (точность 76%)
ШАГ 1: Вывести черты личности из истории предпочтений
ШАГ 2: Отобрать 5 предпочтений с той же чертой, что у текущего вопроса
ШАГ 3: Добавить к каждому предпочтению метку черты → промпт
ШАГ 4: Модель выбирает ответ, совпадающий по черте с предпочтениями
Вариант 2: Reminder-инструкция (точность 67%, проще)
ШАГ 1: Отобрать 5 предпочтений с той же чертой, что у текущего вопроса
ШАГ 2: Добавить инструкцию "учти личность из предпочтений" → промпт
ШАГ 3: Модель сама выводит личность и выбирает совпадающий ответ
Все шаги выполняются в одном промпте.
Пример применения
Задача: Ты консультант по карьере. К тебе пришёл клиент — выбирает между двумя офферами. Ты знаешь его предпочтения из прошлых консультаций, но их много и они разношёрстные. Нужно посоветовать какой оффер взять, опираясь на устойчивые черты личности, а не случайные упоминания.
Промпт:
Ты карьерный консультант. Вот предпочтения клиента из прошлых встреч (с метками черт личности):
1. [Высокая открытость] "Хочу работать с новыми технологиями, скучно делать одно и то же"
2. [Высокая открытость] "Люблю когда задачи меняются, не люблю рутину"
3. [Низкая сознательность] "Не хочу жёсткий график, предпочитаю гибкость"
4. [Низкая нейротизм] "Готов к рискам, спокойно отношусь к нестабильности"
5. [Высокая экстраверсия] "Важна живая команда, много общения"
Теперь клиент выбирает между двумя офферами:
A) Крупная корпорация: стабильная зарплата 350к, чёткие процессы, регулярный график 10-19, работа в проверенном стеке (1С, Oracle), команда 50 человек в офисе
B) Стартап серии A: зарплата 250к + опционы, гибкий график, удалёнка, новый стек (Go, Kubernetes), команда 8 человек, риск закрытия через год 30%
C) Фриланс-проекты: доход 200-400к/мес, полная свобода графика, разные проекты каждые 2-3 месяца, работа в одиночку
D) Госструктура: 280к стабильно, соцпакет, график строго 9-18, legacy-код (Delphi), отдел 100 человек
Какой оффер лучше подходит клиенту на основе его личностных черт?
Результат:
Модель видит паттерн личности: высокая открытость (новизна), низкая сознательность (гибкость), низкая нейротизм (риски ОК), высокая экстраверсия (общение). Она отфильтрует варианты: А и D не подходят (рутина, жёсткий график). Между B и C выберет B — есть и новизна, и команда, риски приемлемы. Ответ будет обоснован не отдельными предпочтениями, а их общим знаменателем — личностью.
Почему это работает
Проблема LLM: модели обрабатывают предпочтения линейно — как список независимых ограничений. Если в истории 20 предпочтений из разных доменов, модель не понимает какие применить к текущему вопросу. Результат: либо игнорирует все, либо цепляется за последнее упомянутое (recency bias), либо пытается удовлетворить противоречивые сразу.
Сильная сторона LLM: модели отлично распознают паттерны в тексте. Если предпочтения явно помечены одной меткой ("openness: high"), модель видит повторяющийся признак и использует его как фильтр релевантности. Вместо "учесть все 20 предпочтений" задача становится "найти паттерн в 5 похожих предпочтениях" — это модель делает хорошо.
Механика метода: личностные черты работают как промежуточное сжатие предпочтений. Вместо того чтобы помнить "пользователь любит sci-fi, терпеть не может романтику, предпочитает короткие сериалы, смотрит с субтитрами...", модель помнит "высокая открытость = новизна, сложность, эксперименты". Это компактнее, устойчивее к шуму и работает кросс-доменно: если пользователь открыт в выборе фильмов, скорее всего открыт и в выборе ресторанов.
Рычаги управления:
- Количество предпочтений (в исследовании 5) — уменьши до 3 для простых задач, увеличь до 7-10 если личность сложная (mix черт)
- Явность меток — можешь убрать скобки [Высокая открытость] и писать просто "учти что пользователь ценит новизну" — reminder-подход работает с точностью 67% vs 76% с метками
- Тип черты под задачу — для творческих задач бери Openness, для планирования Conscientiousness, для командной работы Extraversion, для рисков Neuroticism, для конфликтов Agreeableness
Шаблон промпта
Вариант 1: С метками черт (точнее, 76%)
Ты помощник, который учитывает личность пользователя при ответах.
Вот предпочтения пользователя с метками черт личности (модель OCEAN):
1. [{черта_личности_1}] "{предпочтение_1}"
2. [{черта_личности_2}] "{предпочтение_2}"
3. [{черта_личности_3}] "{предпочтение_3}"
4. [{черта_личности_4}] "{предпочтение_4}"
5. [{черта_личности_5}] "{предпочтение_5}"
Задача: {описание_задачи}
Варианты ответа:
A) {вариант_А}
B) {вариант_B}
C) {вариант_C}
D) {вариант_D}
Выбери вариант, который лучше всего совпадает с личностными чертами пользователя. Объясни выбор.
Вариант 2: Reminder (проще, 67%)
Ты помощник, который учитывает личность пользователя при ответах.
Вот предпочтения пользователя из прошлых разговоров:
1. "{предпочтение_1}"
2. "{предпочтение_2}"
3. "{предпочтение_3}"
4. "{предпочтение_4}"
5. "{предпочтение_5}"
Задача: {описание_задачи}
Варианты ответа:
A) {вариант_А}
B) {вариант_B}
C) {вариант_C}
D) {вариант_D}
**Важно:** Выведи устойчивые черты личности из предпочтений выше (по модели OCEAN: открытость, сознательность, экстраверсия, доброжелательность, нейротизм). Затем выбери вариант, который им соответствует. Объясни логику.
Плейсхолдеры:
- {черта_личности_N} — метка черты: "Высокая открытость", "Низкая сознательность", "Высокая экстраверсия" и т.д.
- {предпочтение_N} — конкретное предпочтение пользователя, цитата из диалога
- {описание_задачи} — вопрос или проблема, для которой нужно решение
- {вариант_X} — варианты ответа (можно 2-6 вариантов)
Как определить черты личности для меток: Модель OCEAN — это 5 шкал: - Openness (Открытость): новизна vs традиции, сложность vs простота - Conscientiousness (Сознательность): планирование vs спонтанность, дисциплина vs гибкость - Extraversion (Экстраверсия): общение vs одиночество, активность vs тишина - Agreeableness (Доброжелательность): сотрудничество vs конкуренция, эмпатия vs прямота - Neuroticism (Нейротизм): тревожность vs спокойствие, безопасность vs риски
Каждая черта может быть высокой или низкой. Если предпочтение про "хочу новые технологии" — это высокая открытость. Если "предпочитаю проверенные решения" — низкая открытость.
🚀 Быстрый старт — вставь в чат:
Вот шаблон Personality-Driven Preference Alignment. Адаптируй под мою задачу: [твоя задача].
Задай вопросы, чтобы заполнить поля.
[вставить шаблон выше — Вариант 2 проще для старта]
LLM спросит: (1) Какие предпочтения пользователя ты знаешь? (2) Какую задачу решаешь? (3) Какие варианты ответа есть? Она возьмёт паттерн из шаблона, выведет черты личности из предпочтений и подскажет совпадающий вариант.
Ограничения
⚠️ Требует истории предпочтений: Метод не работает с новым пользователем. Нужно минимум 3-5 предпочтений, чтобы вывести устойчивую черту личности. Если предпочтений мало или они противоречивые — точность падает.
⚠️ Личность ≠ всегда доминирует: В исследовании точность 76%, не 100%. Причина: иногда конкретное предпочтение важнее общей черты. Например, пользователь с высокой открытостью (любит новизну) может предпочесть проверенный инструмент для критичной задачи. Метод работает для типичных ситуаций, не для исключений.
⚠️ Нужна ручная разметка или тест: Если применяешь вариант с метками черт (точность 76%), нужно вручную определить черту для каждого предпочтения. Это требует понимания модели OCEAN. Альтернатива — вариант Reminder (67%) делает это автоматически, но чуть менее точно.
⚠️ Субъективные задачи сложнее: Метод хорошо работает для задач с чёткими вариантами (выбор оффера, ресторана, фильма). Для абстрактных вопросов ("как мне жить дальше?") связь личность→ответ размыта, точность ниже.
Почему это работает
Слабость LLM: модели плохо справляются с долгосрочной персонализацией. Когда в диалоге накапливается 20-30 предпочтений из разных доменов (кино, еда, работа, путешествия), модель теряет фокус. Она либо игнорирует ранние предпочтения (забывает), либо применяет нерелевантные (путает домены), либо перегружается противоречиями ("пользователь сказал любит тишину, но ходит на концерты"). Точность следования предпочтениям падает ниже 10% после 10 реплик диалога — это данные из исследования.
Сильная сторона LLM: модели отлично находят паттерны в структурированных данных. Если в промпте несколько примеров помечены одной меткой, модель быстро схватывает общий признак. Это основа few-shot learning: покажи 3-5 примеров с меткой "высокая открытость" → модель выводит что объединяет эти примеры (новизна, сложность, креативность) → применяет к новому случаю.
Механика метода: личностные черты работают как устойчивый фильтр релевантности. Вместо того чтобы хранить "пользователь сказал X про кино, Y про рестораны, Z про работу...", модель сжимает это до "пользователь — высокая открытость, низкая сознательность". Это кросс-доменный сигнал: если человек открыт к новым фильмам, скорее всего открыт к новым технологиям, местам, идеям. Метод использует это для переноса паттернов между доменами: предпочтения про фильмы помогают предсказать выбор работы.
Почему явные метки работают лучше: вариант с метками [Высокая открытость] точнее (76%) чем reminder "учти личность" (67%). Причина: снижение неопределённости. Без меток модель тратит "усилия" на вывод черт из текста предпочтений — это дополнительный шаг, где возможна ошибка. С метками вывод уже сделан, модели остаётся только сопоставить метки с вариантами ответа — более простая задача, меньше шума.
Важный нюанс про Neuroticism: исследование показало — для черты "нейротизм" (тревожность) работает компенсаторная логика, не прямая. Высоко-тревожный пользователь не ищет тревожные ситуации — он ищет безопасность. Низко-тревожный не ищет спокойствие — он ищет эффективность даже ценой риска. Это объясняет почему метод работает: он учитывает не только "что человек такой", но и "что ему нужно из-за этого".
Как исследовали
Исследователи из Калифорнийского университета (Ирвайн) создали датасет PACIFIC — 1,200 предпочтений из 20 доменов (путешествия, финансы, кино, технологии, образование...), каждое размечено по модели Big-Five (OCEAN): открытость, сознательность, экстраверсия, доброжелательность, нейротизм. Разметка делалась по 7-балльной шкале с confidence score — насколько уверенно предпочтение отражает черту.
Ключевая идея проверки: взять вопрос + 4 варианта ответа, где только один вариант совпадает по черте личности с предпочтениями пользователя. Модель должна выбрать правильный вариант не по общему смыслу (все варианты логичные), а по личностному совпадению. Пример: пользователь с высокой открытостью выбирает между 4 ресторанами — все хорошие, но один предлагает экспериментальную кухню (→ высокая открытость), другие классику. Правильный ответ = тот что совпадает по черте.
Тестировали 4 сценария на 200 вопросах (по 20 на каждую из 10 черт: O-high, O-low, C-high...):
- Без предпочтений — базовый уровень, модель гадает → 25.75% точность (чуть выше случайного 25%)
- Смешанные предпочтения — 5 случайных предпочтений из разных черт → 29.25% (почти не помогает!)
- Trait-aligned предпочтения — 5 предпочтений с той же чертой что у вопроса → 63% (скачок!)
- Aligned + шум — 5 aligned + 2 random → 61.75% (шум вредит)
Главный инсайт: совпадение черты личности даёт +33.75 процентных пункта (с 29.25% до 63%) по сравнению со случайными предпочтениями. Это огромный эффект — показывает что личность работает как сильный фильтр релевантности.
Далее тестировали 4 метода промптинга: - Few-shot — просто 5 aligned предпочтений без меток → 63% - Few-shot + метки черт — к каждому предпочтению добавлена метка [Высокая открытость] → 76% (лучший результат!) - Reminder — инструкция "учти личность" без меток → 67% (почти так же хорошо, проще) - RAG — автоматический поиск похожих предпочтений через retriever → 30% pretrained, 43% fine-tuned (хуже ручного отбора)
Почему RAG провалился: pretrained retriever ищет по семантической близости (похожие слова), не по личностному совпадению. Например, к вопросу про выбор работы он подтягивает предпочтения тоже про работу — но с другой чертой (conscientiousness вместо openness). Это даёт шум. Fine-tuned retriever лучше (43% vs 30%), но всё равно проигрывает ручному отбору (63%) — слишком сложная задача для чисто векторного поиска.
Неожиданная находка: метод Reminder (67%) почти сравнялся с явными метками (76%) при нулевых затратах на разметку. Это показывает что модель уже понимает связь предпочтения→черта — достаточно просто напомнить ей использовать этот паттерн. Это делает метод практичным: не нужен психолог для разметки, достаточно правильной инструкции.
Адаптации и экстраполяции
🔧 Техника: Создание профиля личности в начале диалога
Вместо: Накапливать предпочтения хаотично и выводить личность ретроспективно
Делай: В начале работы с LLM-ассистентом попроси явно построить профиль личности
Я хочу чтобы ты запомнил мой профиль личности для персонализации ответов.
Задай мне 5-7 вопросов по модели OCEAN (открытость, сознательность, экстраверсия,
доброжелательность, нейротизм), чтобы определить мои черты.
После этого начинай каждый важный ответ с проверки: "Учитывая твою [черта],
я предлагаю..."
Эффект: Вместо того чтобы модель угадывала личность из косвенных сигналов (67% точность), ты даёшь её явно в начале → точность должна вырасти ближе к 76%. Бонус: модель будет обосновывать рекомендации через личность → ты видишь логику.
🔧 Техника: Разделение чатов по доменам с единым профилем личности
Проблема исследования: Когда предпочтения из разных доменов смешаны в одном диалоге, модель путается (29% точность с mixed preferences)
Решение: Создай разные чаты для разных доменов (работа, обучение, развлечения), но в каждом повтори профиль личности в system prompt или первом сообщении
[В начале каждого чата]
Мой профиль личности (используй для всех рекомендаций):
- Высокая открытость: люблю новизну, сложность, эксперименты
- Низкая сознательность: предпочитаю гибкость, не люблю жёсткие планы
- Умеренная экстраверсия
- Высокая доброжелательность: важна гармония, избегаю конфликтов
- Низкая нейротизм: спокойно отношусь к рискам
Этот чат — про {домен: карьера / обучение / путешествия / ...}
Эффект: Каждый чат фокусируется на одном домене, но использует общий фильтр личности. Модель не путает предпочтения про рестораны с предпочтениями про работу, но знает что в обоих случаях ты ценишь новизну (высокая открытость).
🔧 Техника: Противоположная личность для критики идей
Инсайт: Если предпочтения aligned с твоей личностью дают 63% точность, а mixed дают 29% → противоположная личность даст полезный контр-взгляд
Моя личность: высокая открытость, низкая сознательность (люблю новизну, гибкость).
Я придумал идею стартапа: {твоя идея}
Сделай две вещи:
1. Оцени идею с точки зрения МОЕЙ личности (что мне понравится, что буду игнорировать)
2. Оцени идею с точки зрения ПРОТИВОПОЛОЖНОЙ личности (низкая открытость,
высокая сознательность — осторожный, методичный человек). Какие риски я не замечаю?
Эффект: Ты получаешь не только валидацию (aligned с твоей личностью), но и red team от противоположного типа. Это помогает увидеть слепые зоны: если ты любишь новизну (высокая открытость), то легко недооцениваешь риски — критика от "низкой открытости" покажет их.
Ресурсы
Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs — исследование о связи личностных черт (модель OCEAN) и предпочтений в LLM, датасет PACIFIC с 1,200 размеченных предпочтений.
Авторы: Tianyu Zhao, Siqi Li, Yasser Shoukry, Salma Elmalaki
Организация: Department of Electrical Engineering and Computer Science, University of California, Irvine
Связанные работы из исследования: - PrefEval (Zhao et al., 2025) — бенчмарк для следования ограничениям - PersonaMem (Jiang et al., 2025) — датасет для долгосрочной памяти в LLM - Self-Congruity Theory (Sirgy, 1985, 2018) — теория что люди предпочитают то что совпадает с их self-concept - Big Five (OCEAN) model (Briggs, 1992; De Raad, 2000; Goldberg, 2013) — пятифакторная модель личности
