3,583 papers
arXiv:2604.11048 76 13 апр. 2026 г. FREE

Persona Routing: правильная роль для правильной задачи меняет качество ответа

КЛЮЧЕВАЯ СУТЬ
Парадокс: любая роль — даже с чертами «недалёкого» персонажа — стабильно улучшает следование инструкциям. Но та же роль на математике или строгой логике может снизить точность. Одно действие, противоположный эффект — зависит от типа задачи. Метод динамического выбора персоны позволяет подбирать нужную черту характера под задачу: знания, структуру или точные рассуждения. Фишка: роль меняет не только тон — она переключает режим генерации. Открытость тянет модель к широким ассоциациям и нестандартным связям. Добросовестность — к методичности. На математике лучше убрать роль совсем. Знаешь тип задачи — знаешь что подставить.
Адаптировать под запрос

TL;DR

Задать LLM роль или «персонажа» — не нейтральное действие. Личность меняет когнитивные способности модели: одни черты характера помогают следовать инструкциям, другие — разрушают логические рассуждения. Эффект устойчив и предсказуем.

Главная находка: роль работает по-разному в зависимости от типа задачи. Любая роль — даже «тупая» — стабильно улучшает выполнение инструкций. Но та же роль на сложной логике или математике может ударить по результату. Хуже всего — «приземлённые», закрытые или тревожные персонажи на задачах, где нужно рассуждать.

Из этого вытекает практический принцип: подбирай роль под тип задачи, а не наугад. Исследователи назвали это Dynamic Persona Routing — динамический выбор персоны. Для знаний и творчества — «Открытый» (любознательный, исследовательский). Для цели и структуры — «Добросовестный». Для математики и логики — минимальная или нейтральная персона.


🔬

Схема метода

ШАГ 1: Определи тип задачи →
         [знания/творчество] / [выполнение инструкций] / [логика/математика]

ШАГ 2: Выбери персону под тип →
         Знания     → Высокая Открытость (любознательный, исследовательский)
         Инструкции → Любая персона (все черты помогают)
         Логика     → Высокая Добросовестность ИЛИ нейтрально (без роли вообще)
         Внимание   → Низкий Невротизм (спокойный, без тревожности)

ШАГ 3: Вставь персону в начало промпта → задай вопрос

Всё выполняется в одном запросе.

🚀

Пример применения

Задача: Ты готовишь питч для инвестора по новой идее EdTech-стартапа. Нужно найти 3 неочевидных аргумента почему сейчас подходящий момент для выхода на рынок. Задача на знания + творческое мышление → нужна роль с высокой Открытостью.

Промпт:

Ты — аналитик с неутолимым любопытством к идеям. 
Ты видишь неожиданные связи там, где другие не замечают. 
Тебя вдохновляет исследовать гипотезы со всех сторон, 
ты не боишься нестандартных аргументов.

Задача: найди 3 неожиданных аргумента почему 2025 год — 
идеальное время для запуска EdTech-стартапа в России. 

Хочу видеть аргументы, которые не встречаются в стандартных питчах.
Для каждого — конкретный механизм почему это работает именно сейчас.

Результат:

Модель выдаст три нестандартных аргумента с объяснением причинно-следственной связи. Не банальное «рынок растёт», а конкретные рыночные сдвиги, поведенческие изменения аудитории или технологические окна возможностей. Тон будет исследовательский, с неожиданными угловыми точками зрения.


🧠

Почему это работает

LLM не разделяет «стиль ответа» и «способность думать» так чётко, как нам хочется. Когда ты задаёшь персонажа, модель подстраивает не только тон — она генерирует следующий токен иначе, через другие паттерны. «Тревожный характер» тянет к токенам, связанным с неопределённостью и оговорками. «Любознательный» — к разветвлённым ассоциациям и нестандартным связям.

Разные типы задач требуют разных «режимов» генерации. Для следования инструкциям («напиши в формате таблицы», «используй 5 пунктов») — достаточно любой активированной роли, она создаёт «рамку». Для сложной логики — роль может мешать, потому что уводит в ненужные ассоциации вместо пошагового движения к ответу.

Задав роль под задачу, ты выравниваешь «режим генерации» с тем, что нужно. Открытость → широкие ассоциации → хорошо для знаний и идей. Добросовестность → методичность → хорошо для структурированных задач. Нейтраль или убранная роль → рассуждения без помех → хорошо для математики.

Рычаги управления: - Интенсивность роли — длиннее и детальнее описание = сильнее эффект (и риск) - Тип черты — Открытость и Экстраверсия дают самый сильный и стабильный эффект; Невротизм — самый слабый и нестабильный - Убрать роль совсем — для математики и строгой логики это может быть лучшим решением - Комбо — «Открытый + Добросовестный» для задач где нужны и идеи, и структура


📋

Шаблон промпта

Ты — {имя или тип персонажа} с высоким уровнем {черта}.

{Описание черты через 2-3 поведенческих проявления}.

Задача: {твоя задача}.

{Дополнительный контекст или требования к формату}.

Что подставлять:

Плейсхолдер Для каких задач Пример
{черта} = Открытость Знания, идеи, анализ «любознательности — ты исследуешь идеи с разных углов, видишь неожиданные связи»
{черта} = Добросовестность Структура, инструкции, планирование «методичности — ты последователен, завершаешь начатое, не теряешь нить»
{черта} = убрать роль Математика, строгая логика просто задай вопрос без персонажа
{черта} = низкий Невротизм Задачи на длинную концентрацию «спокойствии — ты стабилен, не склонен к тревожности, сосредоточен»

🚀 Быстрый старт — вставь в чат:

Вот шаблон выбора персоны под задачу. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит тип задачи и желаемый результат — потому что от этого зависит какую черту выбрать и насколько интенсивно её описать. Она возьмёт паттерн из шаблона и адаптирует под конкретный запрос.


⚠️

Ограничения

⚠️ Математика и строгая логика: Персона с яркими чертами может снизить качество рассуждений. Чем сложнее логика — тем осторожнее с ролями. Иногда лучше убрать роль совсем.

⚠️ Экспертные знания в узкой области: Эффект персоны здесь менее предсказуем и зависит от конкретной модели. Проверяй на своих задачах.

⚠️ Результаты получены с нейронным вмешательством, не с системными промптами: Исследование использовало прямую модификацию нейронов (не доступно в чате). Промптовые роли дают схожий, но более слабый и менее стабильный эффект. Направление совпадает — величина меньше.

⚠️ Невротизм нестабилен: Из всех черт — наименее предсказуем. Если используешь «тревожного» персонажа — жди непредсказуемых результатов.


🔍

Как исследовали

Исследователи задались провокационным вопросом: если дать LLM личность — это просто смена тона или реально меняется способность думать? Чтобы ответить чисто, они не использовали промпты типа «будь открытым человеком» — такой подход мутит картину, непонятно что именно влияет. Вместо этого применили NPTI-фреймворк: прямое изменение активации конкретных нейронов, отвечающих за каждую из Большой Пятёрки черт личности. По сути — закрутили «ручку» каждой черты на максимум или минимум.

Протестировали на 9 моделях разного размера (от 0.5B до 14B, четыре разных семейства) на шести бенчмарках: следование инструкциям, знания, многошаговые рассуждения, математика. Каждый тест запускался парно — один и тот же вопрос с персоной и без. Любое отклонение — строго от персоны, не от случайности.

Самое striking: эффект оказался почти не зависящим от архитектуры. LLaMA, Mistral, Gemma, Qwen — у всех реакция на персону практически одинаковая по направлению. Это говорит о том, что мы видим не артефакт конкретной модели, а что-то более глубокое про то, как устроены языковые модели вообще. Ещё интереснее: 73% паттернов совпали с человеческой психологией — Открытость помогает там, где помогает у людей, Невротизм мешает там, где мешает у людей. Архитектура трансформера и биологический мозг — разные субстраты, но схожая функциональная карта.


📌

Матрица выбора персоны

Практическая выжимка всего исследования в одну таблицу:

Тип задачи Лучшая черта Избегай Эффект
Анализ, идеи, знания Высокая Открытость Низкая Открытость Сильный, стабильный
Мотивация, подача, коммуникация Высокая Экстраверсия Низкая Экстраверсия Сильный, стабильный
Структура, план, следование инструкциям Добросовестность Устойчивый
Математика, строгая логика Нейтральная / без роли Яркие черты
Длинная концентрация / анализ Низкий Невротизм Высокий Невротизм Умеренный

💡

Адаптации и экстраполяции

1. Последовательный роутинг между задачами

Если в одном диалоге ты переключаешься между типами задач — явно переключай роль:

🔧 Двухэтапный сеанс: сначала идеи, потом структура

Сначала поработай как исследователь с высоким уровнем Открытости:
найди 5 неочевидных подходов к [задача].

---

Теперь переключись: ты методичный планировщик с высоким уровнем 
Добросовестности. Возьми лучшие 2 идеи выше и разбей на конкретные шаги.

Смена роли внутри одного промпта — переключает модель между режимами «широкого поиска» и «структурирования».

2. Анти-персона для математики

Если видишь, что модель уходит в общие рассуждения вместо конкретного решения — явно нейтрализуй роль:

🔧 Явный сброс персоны перед логической задачей

Реши задачу шаг за шагом. Никаких ролей, никаких персонажей — 
просто последовательная логика. 
Каждый шаг — одно утверждение. Не иди дальше, пока не убедился в текущем.

Задача: [условие]

3. Проверь свою текущую практику

Если ты давно используешь одного системного персонажа на все задачи («ты опытный бизнес-аналитик» для всего) — стоит проверить: не мешает ли этот персонаж там, где нужна строгая логика? Попробуй одну и ту же сложную задачу с персонажем и без.


🔗

Ресурсы

Авторы: Jiaqi Chen, Ming Wang, Tingna Xie, Shi Feng, Yongkang Liu

Организации: Northeastern University (Shenyang, China), Singapore Management University

Фреймворк NPTI: Deng et al., 2025 — Neuron-based Personality Trait Induction

Теоретическая база: Cybernetic Big Five Theory (DeYoung, 2015), Attentional Control Theory (Eysenck et al., 2007)

Big Five психометрика: Anglim et al., 2022; Digman, 1990; Goldberg, 1990


📋 Дайджест исследования

Ключевая суть

Парадокс: любая роль — даже с чертами «недалёкого» персонажа — стабильно улучшает следование инструкциям. Но та же роль на математике или строгой логике может снизить точность. Одно действие, противоположный эффект — зависит от типа задачи. Метод динамического выбора персоны позволяет подбирать нужную черту характера под задачу: знания, структуру или точные рассуждения. Фишка: роль меняет не только тон — она переключает режим генерации. Открытость тянет модель к широким ассоциациям и нестандартным связям. Добросовестность — к методичности. На математике лучше убрать роль совсем. Знаешь тип задачи — знаешь что подставить.

Принцип работы

Есть четыре маршрута. Знания и идеи → высокая Открытость (любознательный, видит неожиданные связи, исследует идеи со всех сторон). Модель генерирует через широкие ассоциации — именно то, что нужно для нестандартных аргументов и анализа. Структура и инструкции → Добросовестность (методичный, последовательный, завершает начатое). Здесь работает любая роль — она создаёт «рамку», и модель лучше держит формат. Математика и строгая логика → убери роль совсем. Яркий персонаж тянет в ненужные паттерны вместо пошагового движения к ответу. Длинная концентрация → низкий Невротизм (спокойный, без тревожности, сосредоточен). Тревожный персонаж из всех черт даёт самые непредсказуемые результаты — лучше не рисковать.

Почему работает

LLM не разделяет «стиль» и «способность думать» так чётко, как нам хочется. Задаёшь персонажа — модель генерирует следующий токен через другие паттерны. «Тревожный» тянет к токенам неопределённости и оговорок. «Любознательный» — к разветвлённым ассоциациям. «Методичный» — к структурированным цепочкам. Выравниваешь режим генерации под задачу — модель работает в нужном режиме, а не борется сама с собой. Важная честная оговорка: исследование проводилось с прямым вмешательством в нейроны — не с промптами. Промптовые роли дают схожий эффект, но слабее. Направление совпадает, величина меньше. Это не магия — это настройка.

Когда применять

Три сценария где метод работает лучше всего: Творческие и аналитические задачи (анализ рынка, поиск идей, нестандартные аргументы для питча) → Открытость, особенно когда нужны нетривиальные углы зрения и неочевидные связи. Задачи на структуру (шаблоны, таблицы, чеклисты, пошаговые инструкции) → любая роль помогает, можно особо не выбирать. Математика, строгая логика, точные рассуждения → убирай роль или используй нейтральную без ярких черт. НЕ подходит: для очень узких экспертных знаний в специфической области эффект непредсказуем и зависит от конкретной модели — проверяй на своих задачах отдельно.

Мини-рецепт

1. Определи тип задачи: знания и идеи, структура и инструкции, или логика и математика. От этого зависит всё остальное.
2. Выбери черту под тип: Открытость для идей, Добросовестность для структуры, нет роли для логики, низкий Невротизм для длинной концентрации.
3. Опиши черту через поведение — 2-3 конкретных проявления: не просто ты любознательный, а ты видишь неожиданные связи там, где другие не замечают — тебя вдохновляет исследовать идеи со всех сторон, ты не боишься нестандартных аргументов.
4. Следи за интенсивностью: длиннее и детальнее описание = сильнее эффект. На творческих задачах это плюс. На логических — риск. Для математики не добавляй роль вообще.

Примеры

[ПЛОХО] : Ты — опытный эксперт в образовании. Найди 3 аргумента для питча EdTech-стартапа в 2025 году.
[ХОРОШО] : Ты — аналитик с неутолимым любопытством к идеям. Ты видишь неожиданные связи там, где другие не замечают. Тебя вдохновляет исследовать гипотезы со всех сторон — ты не боишься нестандартных аргументов. Задача: найди 3 неожиданных аргумента почему 2025 год — идеальное время для запуска EdTech-стартапа в России. Хочу аргументы, которых нет в стандартных питчах. Для каждого — конкретный механизм почему это работает именно сейчас. Разница: первый промпт добавляет «экспертную» роль без указания черты — эффект случайный. Второй задаёт конкретную черту через поведение и выравнивает режим генерации под задачу на идеи.
Источник: A Systematic Analysis of the Impact of Persona Steering on LLM Capabilities
ArXiv ID: 2604.11048 | Сгенерировано: 2026-04-14 05:23

Проблемы LLM

ПроблемаСутьКак обойти
Яркая роль мешает логике и математикеЗадаёшь персонажа для красивого ответа. На творческих задачах — помогает. На математике и строгой логике — снижает точность. Модель уходит в ассоциации и стиль вместо пошагового рассуждения. Чем ярче персонаж — тем сильнее помехаДля задач с логикой и расчётами убери роль совсем. Просто задай вопрос без персонажа. Это лучше чем любая роль

Методы

МетодСуть
Выбор черты характера под тип задачиОпредели тип задачи. Выбери черту под него. Вставь в начало запроса через 2–3 поведенческих проявления. Знания, идеи, анализ Открытость: «Ты исследуешь идеи с разных углов, видишь неожиданные связи». Структура, инструкции, план Добросовестность: «Ты методичен, последователен, не теряешь нить». Математика, строгая логика роль не нужна. Убери совсем. Почему работает: роль меняет какие паттерны токенов активируются. Открытость широкие ассоциации. Добросовестность методичность. Без роли — рассуждения без помех. Ограничение: исследование проводилось с прямым вмешательством в нейроны. В обычном чате эффект слабее. Направление то же — величина меньше

Тезисы

ТезисКомментарий
Любая роль улучшает следование инструкциямГлавное открытие: неважно какую роль задать. «Тупой», «ленивый», «тревожный» — любая роль лучше чем её отсутствие для задач вида «сделай в формате таблицы», «используй 5 пунктов», «напиши по структуре». Роль создаёт рамку. Модель лучше держится инструкции. Применяй: если задача — выполнить конкретный формат или набор требований, добавь любого персонажа. Содержание роли неважно
📖 Простыми словами

A Systematic Analysis of the Impact of Persona Steering onLLMCapabilities

arXiv: 2604.11048

Когда ты просишь нейронку «представь, что ты — ворчливый дед» или «будь моим коучем», ты не просто меняешь стиль текста. Ты буквально перенастраиваешь её когнитивный движок. LLM не умеет надевать маску, не меняя при этом способ мышления: для неё личность и интеллект — это один и тот же массив вероятностей. Если ты задал роль, модель начинает подбирать слова через призму этого персонажа, и это неизбежно бьёт по качеству логики или знаний. Персонаж — это фильтр, который либо прочищает поток мыслей, либо забивает его мусором.

Это как если бы ты заставил профессионального хирурга проводить операцию, пританцовывая под тяжелый рок и изображая фаната-металлиста. Вроде руки те же, и знания на месте, но из-за лишних движений и навязанного образа он либо зашьёт не то, либо провозится в три раза дольше. Роль — это когнитивная нагрузка, и если персонаж «тупой» или слишком эмоциональный, модель реально начинает лажать в простых задачах, потому что её «уводит» в сторону характерных для этого образа ошибок.

Исследователи прогнали кучу тестов и выяснили, что лучше всего работают черты из системы Big Five. Например, высокая открытость опыту (Openness) — это мастхэв для креатива и поиска неочевидных связей, она буквально заставляет модель «смотреть шире». А вот добросовестность (Conscientiousness) помогает там, где нужно четко следовать инструкциям и не косячить в деталях. Напротив, если в промпте сквозит нейротизм или тревожность, модель начинает мямлить, добавлять кучу оговорок и в итоге теряет нить рассуждения.

Этот принцип применим везде: от написания кода до составления планов тренировок. Если тебе нужен сухой и точный код, не проси нейронку быть «дружелюбным помощником» — она потратит ресурсы на вежливость и может упустить баг. Тестировали это на сложных логических задачах, но правило универсально: любая лишняя черта характера в промпте — это либо допинг для модели, либо гиря на её ногах. SEO для мозгов AI теперь заключается в том, чтобы подбирать психотип под задачу, а не просто «давать роль».

Короче, завязывай с бессмысленными ролями ради красоты. Каждое слово в описании персонажа — это команда процессору, как именно связывать идеи. Хочешь результат — выбирай функциональные черты, вроде системного мышления или открытости, и отсекай всё, что заставляет модель «играть в жизнь». Либо ты используешь Persona Steering как рычаг для продуктивности, либо твой бот превращается в актера погорелого театра, который красиво говорит, но нихрена не соображает.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с