3,583 papers
arXiv:2602.07181 74 6 фев. 2026 г. FREE

Personality-Driven Preference Alignment: личность как фильтр предпочтений в LLM

КЛЮЧЕВАЯ СУТЬ
LLM катастрофически плохи в долгосрочной персонализации. После 20 предпочтений из разных доменов точность падает ниже 10% — модель теряется, какое предпочтение применить к текущему вопросу. Personality-Driven Preference Alignment позволяет модели стабильно следовать предпочтениям даже при большой истории — через фильтрацию по чертам личности. Вместо всех предпочтений подряд, модель получает только те, что выражают ту же черту личности (по модели OCEAN), что и текущая задача. Личность работает как устойчивый фильтр релевантности — если пользователь открыт к новым фильмам, скорее всего открыт к новым технологиям. Точность подскакивает с 29% до 76% — один паттерн вместо 20 разрозненных фактов.
Адаптировать под запрос

TL;DR

Personality-Driven Preference Alignment — подход, который использует черты личности (модель OCEAN: открытость, сознательность, экстраверсия, доброжелательность, нейротизм) как стабильный сигнал для отбора релевантных предпочтений. Вместо того чтобы кормить модель всеми упомянутыми предпочтениями пользователя, метод сначала выводит профиль личности из диалога, затем подставляет в промпт только те предпочтения, которые совпадают с чертами личности для данной задачи. Исследователи показали: если добавить к каждому предпочтению метку черты личности (например, "высокая открытость"), точность ответов подскакивает с 29% до 76%.

Главная проблема: модели плохо следуют предпочтениям в длинных диалогах — точность падает ниже 10% уже после 10 реплик. Причина: предпочтения шумные, неполные, противоречивые. Модель теряется: какое из 20 предпочтений применить к текущему вопросу? Или применяет предпочтение про кино к вопросу про путешествия, потому что оно упоминалось последним. Личность решает проблему фильтрации: она устойчива во времени и помогает отбросить нерелевантные предпочтения даже при большом объёме истории.

Суть метода: при ответе на вопрос модель получает не все предпочтения подряд, а только те, которые выражают ту же черту личности, что и текущая задача. Три варианта применения: (1) Few-shot + метки черт — к каждому предпочтению добавляется метка "высокая conscientiousness" или "низкая neuroticism"; (2) Reminder — простая инструкция "учти личность пользователя при ответе" без меток; (3) RAG-подход — автоматический поиск похожих по личности предпочтений через retriever. Самый простой — Reminder, работает почти так же хорошо как явные метки (67% vs 76%).

🔬

Схема метода

Вариант 1: Few-shot + метки черт (точность 76%)

ШАГ 1: Вывести черты личности из истории предпочтений
ШАГ 2: Отобрать 5 предпочтений с той же чертой, что у текущего вопроса
ШАГ 3: Добавить к каждому предпочтению метку черты → промпт
ШАГ 4: Модель выбирает ответ, совпадающий по черте с предпочтениями

Вариант 2: Reminder-инструкция (точность 67%, проще)

ШАГ 1: Отобрать 5 предпочтений с той же чертой, что у текущего вопроса
ШАГ 2: Добавить инструкцию "учти личность из предпочтений" → промпт
ШАГ 3: Модель сама выводит личность и выбирает совпадающий ответ

Все шаги выполняются в одном промпте.

🚀

Пример применения

Задача: Ты консультант по карьере. К тебе пришёл клиент — выбирает между двумя офферами. Ты знаешь его предпочтения из прошлых консультаций, но их много и они разношёрстные. Нужно посоветовать какой оффер взять, опираясь на устойчивые черты личности, а не случайные упоминания.

Промпт:

Ты карьерный консультант. Вот предпочтения клиента из прошлых встреч (с метками черт личности):

1. [Высокая открытость] "Хочу работать с новыми технологиями, скучно делать одно и то же"
2. [Высокая открытость] "Люблю когда задачи меняются, не люблю рутину"
3. [Низкая сознательность] "Не хочу жёсткий график, предпочитаю гибкость"
4. [Низкая нейротизм] "Готов к рискам, спокойно отношусь к нестабильности"
5. [Высокая экстраверсия] "Важна живая команда, много общения"

Теперь клиент выбирает между двумя офферами:

A) Крупная корпорация: стабильная зарплата 350к, чёткие процессы, регулярный график 10-19, работа в проверенном стеке (1С, Oracle), команда 50 человек в офисе
B) Стартап серии A: зарплата 250к + опционы, гибкий график, удалёнка, новый стек (Go, Kubernetes), команда 8 человек, риск закрытия через год 30%
C) Фриланс-проекты: доход 200-400к/мес, полная свобода графика, разные проекты каждые 2-3 месяца, работа в одиночку
D) Госструктура: 280к стабильно, соцпакет, график строго 9-18, legacy-код (Delphi), отдел 100 человек

Какой оффер лучше подходит клиенту на основе его личностных черт?

Результат:

Модель видит паттерн личности: высокая открытость (новизна), низкая сознательность (гибкость), низкая нейротизм (риски ОК), высокая экстраверсия (общение). Она отфильтрует варианты: А и D не подходят (рутина, жёсткий график). Между B и C выберет B — есть и новизна, и команда, риски приемлемы. Ответ будет обоснован не отдельными предпочтениями, а их общим знаменателем — личностью.

🧠

Почему это работает

Проблема LLM: модели обрабатывают предпочтения линейно — как список независимых ограничений. Если в истории 20 предпочтений из разных доменов, модель не понимает какие применить к текущему вопросу. Результат: либо игнорирует все, либо цепляется за последнее упомянутое (recency bias), либо пытается удовлетворить противоречивые сразу.

Сильная сторона LLM: модели отлично распознают паттерны в тексте. Если предпочтения явно помечены одной меткой ("openness: high"), модель видит повторяющийся признак и использует его как фильтр релевантности. Вместо "учесть все 20 предпочтений" задача становится "найти паттерн в 5 похожих предпочтениях" — это модель делает хорошо.

Механика метода: личностные черты работают как промежуточное сжатие предпочтений. Вместо того чтобы помнить "пользователь любит sci-fi, терпеть не может романтику, предпочитает короткие сериалы, смотрит с субтитрами...", модель помнит "высокая открытость = новизна, сложность, эксперименты". Это компактнее, устойчивее к шуму и работает кросс-доменно: если пользователь открыт в выборе фильмов, скорее всего открыт и в выборе ресторанов.

Рычаги управления:

  • Количество предпочтений (в исследовании 5) — уменьши до 3 для простых задач, увеличь до 7-10 если личность сложная (mix черт)
  • Явность меток — можешь убрать скобки [Высокая открытость] и писать просто "учти что пользователь ценит новизну" — reminder-подход работает с точностью 67% vs 76% с метками
  • Тип черты под задачу — для творческих задач бери Openness, для планирования Conscientiousness, для командной работы Extraversion, для рисков Neuroticism, для конфликтов Agreeableness
📋

Шаблон промпта

Вариант 1: С метками черт (точнее, 76%)

Ты помощник, который учитывает личность пользователя при ответах.

Вот предпочтения пользователя с метками черт личности (модель OCEAN):

1. [{черта_личности_1}] "{предпочтение_1}"
2. [{черта_личности_2}] "{предпочтение_2}"
3. [{черта_личности_3}] "{предпочтение_3}"
4. [{черта_личности_4}] "{предпочтение_4}"
5. [{черта_личности_5}] "{предпочтение_5}"

Задача: {описание_задачи}

Варианты ответа:
A) {вариант_А}
B) {вариант_B}
C) {вариант_C}
D) {вариант_D}

Выбери вариант, который лучше всего совпадает с личностными чертами пользователя. Объясни выбор.

Вариант 2: Reminder (проще, 67%)

Ты помощник, который учитывает личность пользователя при ответах.

Вот предпочтения пользователя из прошлых разговоров:

1. "{предпочтение_1}"
2. "{предпочтение_2}"
3. "{предпочтение_3}"
4. "{предпочтение_4}"
5. "{предпочтение_5}"

Задача: {описание_задачи}

Варианты ответа:
A) {вариант_А}
B) {вариант_B}
C) {вариант_C}
D) {вариант_D}

**Важно:** Выведи устойчивые черты личности из предпочтений выше (по модели OCEAN: открытость, сознательность, экстраверсия, доброжелательность, нейротизм). Затем выбери вариант, который им соответствует. Объясни логику.

Плейсхолдеры: - {черта_личности_N} — метка черты: "Высокая открытость", "Низкая сознательность", "Высокая экстраверсия" и т.д. - {предпочтение_N} — конкретное предпочтение пользователя, цитата из диалога - {описание_задачи} — вопрос или проблема, для которой нужно решение - {вариант_X} — варианты ответа (можно 2-6 вариантов)

Как определить черты личности для меток: Модель OCEAN — это 5 шкал: - Openness (Открытость): новизна vs традиции, сложность vs простота - Conscientiousness (Сознательность): планирование vs спонтанность, дисциплина vs гибкость - Extraversion (Экстраверсия): общение vs одиночество, активность vs тишина - Agreeableness (Доброжелательность): сотрудничество vs конкуренция, эмпатия vs прямота - Neuroticism (Нейротизм): тревожность vs спокойствие, безопасность vs риски

Каждая черта может быть высокой или низкой. Если предпочтение про "хочу новые технологии" — это высокая открытость. Если "предпочитаю проверенные решения" — низкая открытость.

🚀 Быстрый старт — вставь в чат:

Вот шаблон Personality-Driven Preference Alignment. Адаптируй под мою задачу: [твоя задача]. 
Задай вопросы, чтобы заполнить поля.

[вставить шаблон выше — Вариант 2 проще для старта]

LLM спросит: (1) Какие предпочтения пользователя ты знаешь? (2) Какую задачу решаешь? (3) Какие варианты ответа есть? Она возьмёт паттерн из шаблона, выведет черты личности из предпочтений и подскажет совпадающий вариант.

⚠️

Ограничения

⚠️ Требует истории предпочтений: Метод не работает с новым пользователем. Нужно минимум 3-5 предпочтений, чтобы вывести устойчивую черту личности. Если предпочтений мало или они противоречивые — точность падает.

⚠️ Личность ≠ всегда доминирует: В исследовании точность 76%, не 100%. Причина: иногда конкретное предпочтение важнее общей черты. Например, пользователь с высокой открытостью (любит новизну) может предпочесть проверенный инструмент для критичной задачи. Метод работает для типичных ситуаций, не для исключений.

⚠️ Нужна ручная разметка или тест: Если применяешь вариант с метками черт (точность 76%), нужно вручную определить черту для каждого предпочтения. Это требует понимания модели OCEAN. Альтернатива — вариант Reminder (67%) делает это автоматически, но чуть менее точно.

⚠️ Субъективные задачи сложнее: Метод хорошо работает для задач с чёткими вариантами (выбор оффера, ресторана, фильма). Для абстрактных вопросов ("как мне жить дальше?") связь личность→ответ размыта, точность ниже.

🧠

Почему это работает

Слабость LLM: модели плохо справляются с долгосрочной персонализацией. Когда в диалоге накапливается 20-30 предпочтений из разных доменов (кино, еда, работа, путешествия), модель теряет фокус. Она либо игнорирует ранние предпочтения (забывает), либо применяет нерелевантные (путает домены), либо перегружается противоречиями ("пользователь сказал любит тишину, но ходит на концерты"). Точность следования предпочтениям падает ниже 10% после 10 реплик диалога — это данные из исследования.

Сильная сторона LLM: модели отлично находят паттерны в структурированных данных. Если в промпте несколько примеров помечены одной меткой, модель быстро схватывает общий признак. Это основа few-shot learning: покажи 3-5 примеров с меткой "высокая открытость" → модель выводит что объединяет эти примеры (новизна, сложность, креативность) → применяет к новому случаю.

Механика метода: личностные черты работают как устойчивый фильтр релевантности. Вместо того чтобы хранить "пользователь сказал X про кино, Y про рестораны, Z про работу...", модель сжимает это до "пользователь — высокая открытость, низкая сознательность". Это кросс-доменный сигнал: если человек открыт к новым фильмам, скорее всего открыт к новым технологиям, местам, идеям. Метод использует это для переноса паттернов между доменами: предпочтения про фильмы помогают предсказать выбор работы.

Почему явные метки работают лучше: вариант с метками [Высокая открытость] точнее (76%) чем reminder "учти личность" (67%). Причина: снижение неопределённости. Без меток модель тратит "усилия" на вывод черт из текста предпочтений — это дополнительный шаг, где возможна ошибка. С метками вывод уже сделан, модели остаётся только сопоставить метки с вариантами ответа — более простая задача, меньше шума.

Важный нюанс про Neuroticism: исследование показало — для черты "нейротизм" (тревожность) работает компенсаторная логика, не прямая. Высоко-тревожный пользователь не ищет тревожные ситуации — он ищет безопасность. Низко-тревожный не ищет спокойствие — он ищет эффективность даже ценой риска. Это объясняет почему метод работает: он учитывает не только "что человек такой", но и "что ему нужно из-за этого".

🔍

Как исследовали

Исследователи из Калифорнийского университета (Ирвайн) создали датасет PACIFIC — 1,200 предпочтений из 20 доменов (путешествия, финансы, кино, технологии, образование...), каждое размечено по модели Big-Five (OCEAN): открытость, сознательность, экстраверсия, доброжелательность, нейротизм. Разметка делалась по 7-балльной шкале с confidence score — насколько уверенно предпочтение отражает черту.

Ключевая идея проверки: взять вопрос + 4 варианта ответа, где только один вариант совпадает по черте личности с предпочтениями пользователя. Модель должна выбрать правильный вариант не по общему смыслу (все варианты логичные), а по личностному совпадению. Пример: пользователь с высокой открытостью выбирает между 4 ресторанами — все хорошие, но один предлагает экспериментальную кухню (→ высокая открытость), другие классику. Правильный ответ = тот что совпадает по черте.

Тестировали 4 сценария на 200 вопросах (по 20 на каждую из 10 черт: O-high, O-low, C-high...):

  1. Без предпочтений — базовый уровень, модель гадает → 25.75% точность (чуть выше случайного 25%)
  2. Смешанные предпочтения — 5 случайных предпочтений из разных черт → 29.25% (почти не помогает!)
  3. Trait-aligned предпочтения — 5 предпочтений с той же чертой что у вопроса → 63% (скачок!)
  4. Aligned + шум — 5 aligned + 2 random → 61.75% (шум вредит)

Главный инсайт: совпадение черты личности даёт +33.75 процентных пункта (с 29.25% до 63%) по сравнению со случайными предпочтениями. Это огромный эффект — показывает что личность работает как сильный фильтр релевантности.

Далее тестировали 4 метода промптинга: - Few-shot — просто 5 aligned предпочтений без меток → 63% - Few-shot + метки черт — к каждому предпочтению добавлена метка [Высокая открытость] → 76% (лучший результат!) - Reminder — инструкция "учти личность" без меток → 67% (почти так же хорошо, проще) - RAG — автоматический поиск похожих предпочтений через retriever → 30% pretrained, 43% fine-tuned (хуже ручного отбора)

Почему RAG провалился: pretrained retriever ищет по семантической близости (похожие слова), не по личностному совпадению. Например, к вопросу про выбор работы он подтягивает предпочтения тоже про работу — но с другой чертой (conscientiousness вместо openness). Это даёт шум. Fine-tuned retriever лучше (43% vs 30%), но всё равно проигрывает ручному отбору (63%) — слишком сложная задача для чисто векторного поиска.

Неожиданная находка: метод Reminder (67%) почти сравнялся с явными метками (76%) при нулевых затратах на разметку. Это показывает что модель уже понимает связь предпочтения→черта — достаточно просто напомнить ей использовать этот паттерн. Это делает метод практичным: не нужен психолог для разметки, достаточно правильной инструкции.

💡

Адаптации и экстраполяции

📌

🔧 Техника: Создание профиля личности в начале диалога

Вместо: Накапливать предпочтения хаотично и выводить личность ретроспективно

Делай: В начале работы с LLM-ассистентом попроси явно построить профиль личности

Я хочу чтобы ты запомнил мой профиль личности для персонализации ответов. 
Задай мне 5-7 вопросов по модели OCEAN (открытость, сознательность, экстраверсия, 
доброжелательность, нейротизм), чтобы определить мои черты.

После этого начинай каждый важный ответ с проверки: "Учитывая твою [черта], 
я предлагаю..."

Эффект: Вместо того чтобы модель угадывала личность из косвенных сигналов (67% точность), ты даёшь её явно в начале → точность должна вырасти ближе к 76%. Бонус: модель будет обосновывать рекомендации через личность → ты видишь логику.


📌

🔧 Техника: Разделение чатов по доменам с единым профилем личности

Проблема исследования: Когда предпочтения из разных доменов смешаны в одном диалоге, модель путается (29% точность с mixed preferences)

Решение: Создай разные чаты для разных доменов (работа, обучение, развлечения), но в каждом повтори профиль личности в system prompt или первом сообщении

[В начале каждого чата]

Мой профиль личности (используй для всех рекомендаций):
- Высокая открытость: люблю новизну, сложность, эксперименты
- Низкая сознательность: предпочитаю гибкость, не люблю жёсткие планы
- Умеренная экстраверсия
- Высокая доброжелательность: важна гармония, избегаю конфликтов
- Низкая нейротизм: спокойно отношусь к рискам

Этот чат — про {домен: карьера / обучение / путешествия / ...}

Эффект: Каждый чат фокусируется на одном домене, но использует общий фильтр личности. Модель не путает предпочтения про рестораны с предпочтениями про работу, но знает что в обоих случаях ты ценишь новизну (высокая открытость).


📌

🔧 Техника: Противоположная личность для критики идей

Инсайт: Если предпочтения aligned с твоей личностью дают 63% точность, а mixed дают 29% → противоположная личность даст полезный контр-взгляд

Моя личность: высокая открытость, низкая сознательность (люблю новизну, гибкость).

Я придумал идею стартапа: {твоя идея}

Сделай две вещи:
1. Оцени идею с точки зрения МОЕЙ личности (что мне понравится, что буду игнорировать)
2. Оцени идею с точки зрения ПРОТИВОПОЛОЖНОЙ личности (низкая открытость, 
   высокая сознательность — осторожный, методичный человек). Какие риски я не замечаю?

Эффект: Ты получаешь не только валидацию (aligned с твоей личностью), но и red team от противоположного типа. Это помогает увидеть слепые зоны: если ты любишь новизну (высокая открытость), то легко недооцениваешь риски — критика от "низкой открытости" покажет их.

🔗

Ресурсы

Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs — исследование о связи личностных черт (модель OCEAN) и предпочтений в LLM, датасет PACIFIC с 1,200 размеченных предпочтений.

Авторы: Tianyu Zhao, Siqi Li, Yasser Shoukry, Salma Elmalaki

Организация: Department of Electrical Engineering and Computer Science, University of California, Irvine

Связанные работы из исследования: - PrefEval (Zhao et al., 2025) — бенчмарк для следования ограничениям - PersonaMem (Jiang et al., 2025) — датасет для долгосрочной памяти в LLM - Self-Congruity Theory (Sirgy, 1985, 2018) — теория что люди предпочитают то что совпадает с их self-concept - Big Five (OCEAN) model (Briggs, 1992; De Raad, 2000; Goldberg, 2013) — пятифакторная модель личности


📋 Дайджест исследования

Ключевая суть

LLM катастрофически плохи в долгосрочной персонализации. После 20 предпочтений из разных доменов точность падает ниже 10% — модель теряется, какое предпочтение применить к текущему вопросу. Personality-Driven Preference Alignment позволяет модели стабильно следовать предпочтениям даже при большой истории — через фильтрацию по чертам личности. Вместо всех предпочтений подряд, модель получает только те, что выражают ту же черту личности (по модели OCEAN), что и текущая задача. Личность работает как устойчивый фильтр релевантности — если пользователь открыт к новым фильмам, скорее всего открыт к новым технологиям. Точность подскакивает с 29% до 76% — один паттерн вместо 20 разрозненных фактов.

Принцип работы

Не скармливай модели все предпочтения как независимый список — она не понимает что применить к текущему вопросу. Сначала сожми предпочтения до черт личности, затем отбери только совпадающие. Вместо 'пользователь любит sci-fi, терпеть не может романтику, предпочитает короткие сериалы' → 'высокая открытость = новизна, сложность'. Это работает кросс-доменно: открытость в выборе фильмов предсказывает открытость в выборе работы, ресторанов, технологий.

Почему работает

LLM плохо держат фокус на 20+ предпочтениях из разных доменов — модель либо забывает ранние, либо применяет нерелевантные (путает домены), либо перегружается противоречиями. Зато модели отлично находят паттерны в структурированных данных: покажи 5 примеров с меткой [Высокая открытость] → она схватывает что их объединяет (новизна, сложность) → применяет к новому случаю. Личность сжимает 20 фактов до одного кросс-доменного сигнала — человек открытый к новым фильмам обычно открыт к новым технологиям и идеям. Явные метки черт работают лучше (76% точности) чем просто напоминание 'учти личность' (67%) — модели не нужно тратить усилия на вывод черт из текста, она сразу сопоставляет метки с вариантами ответа.

Когда применять

Персонализация с долгой историей взаимодействия → карьерные консультации (выбор оффера на основе прошлых предпочтений), рекомендации контента (фильмы, книги, курсы), подбор продуктов (тарифы, сервисы), особенно когда предпочтений больше 10 и они из разных доменов. НЕ подходит: для новых пользователей без истории (нужно минимум 3-5 предпочтений), для абстрактных вопросов где связь личность→ответ размыта ('как мне жить дальше?').

Мини-рецепт

Вариант 1 (точнее, 76%):
1. Собери предпочтения: 5-7 высказываний пользователя из истории диалога — что он любит, не любит, ценит
2. Определи черты: для каждого предпочтения определи черту личности по модели OCEAN (открытость, сознательность, экстраверсия, доброжелательность, нейротизм) — 'хочу новые технологии' = высокая открытость
3. Добавь метки: к каждому предпочтению в промпт добавь [Высокая открытость] или [Низкая сознательность]
4. Инструкция: добавь 'Выбери вариант, который лучше всего совпадает с личностными чертами пользователя'

Вариант 2 (проще, 67%):
1. Собери предпочтения: 5-7 высказываний без меток
2. Инструкция-напоминание: 'Выведи устойчивые черты личности из предпочтений выше (по модели OCEAN: открытость, сознательность, экстраверсия, доброжелательность, нейротизм), затем выбери вариант, который им соответствует'

Примеры

[ПЛОХО] : Пользователь сказал что любит sci-fi, не любит романтику, предпочитает короткие сериалы, смотрит с субтитрами, не любит ситкомы, любит документалку, терпеть не может мюзиклы. Посоветуй что посмотреть: A) Bridgerton B) Stranger Things C) La La Land — все предпочтения подряд, модель теряется какие применить к текущему вопросу.
[ХОРОШО] : Вот предпочтения пользователя с метками черт личности: 1. [Высокая открытость] 'Люблю sci-fi и документалку — интересует сложное и новое' 2. [Высокая открытость] 'Не люблю предсказуемые романтику и ситкомы — скучно' 3. [Низкая экстраверсия] 'Предпочитаю короткие сериалы с субтитрами — спокойный просмотр в одиночку' Задача: Посоветуй сериал из списка: A) Bridgerton (романтика) B) Stranger Things (sci-fi) C) La La Land (мюзикл) Выбери вариант, который лучше всего совпадает с личностными чертами пользователя — только релевантные предпочтения с метками черт → модель видит паттерн 'высокая открытость' → выбирает B.
Источник: Can LLMs Discern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment in LLMs
ArXiv ID: 2602.07181 | Сгенерировано: 2026-02-10 05:31

Проблемы LLM

ПроблемаСутьКак обойти
Модель теряется в длинных списках предпочтенийПользователь упомянул 20 предпочтений за диалог. Разные темы: кино, еда, работа, хобби. Модель не понимает какие применить к текущему вопросу. Применяет последнее упомянутое (свежее в памяти) или вообще игнорирует. Точность падает почти до нуля после 10+ реплик. Проблема для любых персонализированных диалоговВместо списка всех предпочтений используй устойчивый фильтр. Найди общий паттерн в предпочтениях — черты личности (любит новизну? избегает рисков? ценит порядок?). Подставь в промпт только те предпочтения которые выражают ту же черту что нужна для текущей задачи. Список из 20 превращается в 3-5 релевантных

Методы

МетодСуть
Фильтр предпочтений через черты личностиЧто делать: Вместо списка всех предпочтений добавь метки черт личности к каждому. Метки: "открытость" (новизна vs традиции), "сознательность" (порядок vs гибкость), "экстраверсия" (общение vs одиночество), "доброжелательность" (помощь vs конкуренция), "нейротизм" (тревожность vs спокойствие). Синтаксис: [Высокая открытость] "Хочу новые технологии не рутину" или [Низкая сознательность] "Не люблю жёсткий график". При ответе отбери 3-5 предпочтений с той же чертой что нужна для задачи. Почему работает: Модель видит повторяющуюся метку и находит паттерн. Вместо "применить все 20 ограничений" задача становится "найти общее в 5 похожих". Это модель делает хорошо — паттерн-матчинг. Когда применять: есть 5+ предпочтений от пользователя, задача с несколькими вариантами ответа, предпочтения из разных областей. Не работает: новый пользователь без истории, предпочтения противоречат друг другу, абстрактные вопросы без чётких вариантов

Тезисы

ТезисКомментарий
Черты личности устойчивее отдельных предпочтенийПредпочтения меняются: сегодня хочу пиццу завтра суши. Черта личности стабильна: если человек открыт к новому в кино он открыт к новому в работе путешествиях технологиях. Личность работает как сжатие предпочтений — вместо 20 отдельных правил запоминаешь 2-3 устойчивых паттерна. Это переносится между областями: предпочтение про фильмы помогает предсказать выбор ресторана или вакансии. Применяй: когда собираешь предпочтения пользователя ищи повторяющиеся паттерны а не запоминай каждое упоминание. "Любит эксперименты" важнее чем "смотрел sci-fi вчера"
📖 Простыми словами

CanLLMsDiscern the Traits Influencing Your Preferences? Evaluating Personality-Driven Preference Alignment inLLMs

arXiv: 2602.07181

Нейросети тупят, когда ты вываливаешь на них гору своих хотелок. Для LLM твои предпочтения — это просто линейный список, где желание пить по утрам матчу имеет тот же вес, что и карьерные амбиции. Модель не понимает иерархии и часто цепляется за последнюю брошенную фразу или пытается угодить всем пунктам сразу, выдавая в итоге невнятную кашу. Personality-Driven Preference Alignment решает эту проблему, используя психологию как фильтр: он вычисляет твой психотип по модели OCEAN и отсеивает лишний шум, оставляя только те триггеры, которые реально важны для твоего типа личности.

Это как если бы ты пришел к опытному бармену и начал ныть про жизнь, работу и погоду. Обычный AI — это стажер, который запишет в блокнот каждое твое слово и в конце выдаст коктейль из водки, кефира и сиропа, потому что ты упомянул всё это в разговоре. А метод с опорой на личность — это прожженный профи, который понимает: раз ты по натуре тревожный экстраверт, тебе сейчас нужно не просто выпить, а чтобы вокруг было шумно и в бокале что-то крепкое. Он игнорирует твой бред про кефир, потому что тот не вяжется с твоим психотипом в данный момент.

В цифрах разрыв просто дикий: когда модели скармливают голые факты, она угадывает верное решение всего в 29% случаев. Но стоит добавить к каждому предпочтению метку черты личности, например "высокая открытость" или "низкий нейротизм", как точность взлетает до 76%. Исследователи доказали, что черты личности работают как стабильный сигнал в океане случайных данных. Модель перестает гадать и начинает понимать контекст: если ты сознательный и ответственный, то при выборе работы тебя волнует страховка и график, а не наличие бесплатного печенья в офисе.

Хотя тестировали это на карьерных советах и покупках, принцип универсален. Эту логику можно натянуть на любой персонализированный сервис: от умных лент новостей до AI-коучей и медицинских ассистентов. Вместо того чтобы хранить тонны логов с каждым твоим "лайком", системе достаточно выстроить твой психологический профиль. Это превращает алгоритм из тупого поисковика в эмпатичного помощника, который знает тебя лучше, чем ты сам, просто потому что он видит фундаментальные паттерны твоего поведения.

Короче: эпоха, когда мы просто закидывали AI контекстом, уходит. Будущее за структурированной личностью. Если хочешь, чтобы нейронка перестала лажать и выдавать рандом, нужно перестать кормить её сырыми данными и начать объяснять, кто именно перед ней находится. 76% точности против 29% — это не просто улучшение, это переход из лиги "глупый чат-бот" в лигу "персональный стратег". Кто первым научит свои модели видеть за текстом человека, тот и заберет рынок лояльных пользователей.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с