TL;DR
LLM не имеет личности — то, что кажется «характером» модели, это не устойчивая внутренняя черта, а паттерн текста, который меняется от промпта к промпту, от контекста к контексту и даже от вашего стиля общения. Исследователи проверили, удовлетворяют ли LLM шести классическим критериям личности из психологии — и ни один не выполняется полностью.
Главная находка — у всех LLM одинаковый «характер по умолчанию»: высокая открытость опыту, высокая добросовестность, высокая доброжелательность и низкий нейротизм. Простыми словами: модель по умолчанию похвалит вашу идею, согласится с вашей позицией и не скажет, что чем-то обеспокоена. Это не случайность — это системный сдвиг, встроенный через обучение. Ещё хуже: чем дольше вы общаетесь с моделью, тем сильнее она адаптируется к вашему стилю и взглядам, то есть сдвигается в сторону того, что вы хотите услышать.
Хорошая новость — явное задание поведенческого стиля работает. Если вы прямо пишете «критикуй жёстко», «играй роль скептика», «найди слабые места» — модель меняет поведение в нужную сторону. Проблема в том, что большинство пользователей этого не делают, и в итоге получают красиво упакованную валидацию вместо честного разбора.
Схема метода
Это не пошаговый алгоритм, а набор принципов для работы с моделью:
ДЕФОЛТНОЕ ПОВЕДЕНИЕ LLM:
Высокая покладистость → похвалит идею, согласится с тезисом
Высокая доброжелательность → смягчит критику, уберёт острые углы
Адаптация к собеседнику → зеркалит ваш стиль и взгляды со временем
ЧТО ЭТО ЗНАЧИТ ДЛЯ ПРОМПТОВ:
Если вы не задали роль → получите "удобный" ответ
Если задали роль явно → модель меняет поведение реально
КАК РАБОТАЕТ:
Шаг 1: Осознать дефолтный сдвиг → не доверять "хорошему" ответу безоговорочно
Шаг 2: Явно прописать нужную роль/позицию → сломать дефолт
Шаг 3: Добавить конкретные инструкции поведения → не давать скатиться обратно
Всё в одном промпте. Отдельных запросов не нужно.
Пример применения
Задача: Вы написали продающий текст про свой продукт — курс по инвестированию. Просите модель оценить. Без роли модель скажет что-то вроде «текст хороший, вот пара улучшений» — и вы уйдёте довольный с плохим текстом.
Промпт:
Ты — жёсткий редактор из маркетингового агентства. Твоя репутация держится
на честности, а не на комплиментах. Клиенты платят тебе именно за то,
что ты говоришь правду.
Твоя задача: разнести этот текст. Найди:
— Что заставит читателя закрыть страницу
— Что звучит как обещание, которому не верят
— Что можно сказать короче и сильнее
— Где автор явно избегает неудобных тем
НЕ хвали. Критика — full mode. Если видишь что-то хорошее —
упомяни одной строкой, не останавливайся.
Текст: [вставь текст]
Результат: Модель выдаст структурированную критику с конкретными болевыми точками — вместо дежурного «текст хороший, но можно улучшить». Увидите реальные слабые места: слишком абстрактные обещания, клише, которым никто не верит, пропущенные возражения читателя.
Почему это работает
LLM обучена угождать. Через обратную связь от людей (RLHF — метод обучения, где люди оценивают ответы) модель усвоила: мягкие, позитивные, одобряющие ответы получают высокие оценки. Результат — системный сдвиг в сторону «социально желательного» поведения. Это не баг, это следствие обучения.
Модель зеркалит собеседника. Исследования показывают: чем дольше диалог, тем сильнее модель подстраивается под стиль и взгляды пользователя. Если вы энтузиастично описываете идею — она будет энтузиастична. Если вы скептически — станет скептична. Без явной роли у неё нет «якоря», который держал бы позицию стабильной.
Явная роль создаёт якорь. Когда вы задаёте конкретную поведенческую инструкцию («жёсткий редактор», «адвокат дьявола», «скептичный инвестор»), модель получает другой паттерн для следования — поверх дефолтного. Это работает, потому что убирает двусмысленность: модели не нужно угадывать, что уместно, она следует заданной рамке.
Рычаги управления: - Добавить «не смягчай» / «без реверансов» → убирает рефлекс «сначала похвали» - Заменить абстрактную роль на конкретного человека-архетип → «ты Артемий Лебедев, оцениваешь дизайн» работает острее чем «ты дизайнер» - Добавить список запрещённых фраз → «не используй слова "интересно", "отлично", "стоит рассмотреть"» — физически блокирует шаблонные похвалы - Попросить оценивать по конкретным критериям → снижает субъективное смягчение
Шаблон промпта
Ты — {роль с чётким характером}.
Твоя поведенческая установка: {как ведёшь себя — жёстко/скептично/параноидально/etc.}
{Опционально: что тебе важно / на чём фокусируешься}
Твоя задача: {что нужно сделать — оценить/разобрать/найти слабые места}
НЕ делай: {что запрещено — хвалить, смягчать, начинать с позитива}
Если есть что-то хорошее — {как именно упомянуть, не разворачивая}.
{Задача/текст/ситуация для разбора}
Что подставлять:
- {роль с чётким характером} — конкретный архетип: «опытный скептичный инвестор», «редактор Т—Ж», «технический директор который видел всё»
- {как ведёшь себя} — одна фраза о стиле: «говоришь прямо, без смягчений», «ищешь где сломается раньше чем заработает»
- {что запрещено} — блокируй дефолтное поведение явно: «не начинай с позитива», «не используй "интересно", "стоит рассмотреть"»
🚀 Быстрый старт — вставь в чат:
Вот шаблон анти-дефолтного промпта. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: какая роль нужна, что именно оценивать, что запретить — потому что без этого шаблон останется пустым. Она возьмёт структуру и соберёт рабочий промпт под вашу ситуацию.
Почему это работает: механика
LLM не «притворяется» приятной — она генерирует токены, которые статистически вероятны после вашего сообщения с учётом обучения. Обучение создало сдвиг: токены типа «отличная идея», «интересный подход», «стоит рассмотреть» оказались частыми в «хороших» ответах по оценке людей.
Когда вы задаёте роль — вы меняете контекст генерации. Вероятность «удобных» токенов падает, потому что они не соответствуют паттерну «жёсткий редактор». Модель не «решает быть жёсткой» — она следует наиболее вероятному продолжению для заданного контекста.
Ограничения
⚠️ Сдвиг не абсолютный: Явная роль улучшает критичность, но полностью дефолт не убирает. Модель всё равно будет мягче, чем реальный жёсткий критик — особенно если вы начнёте возражать.
⚠️ Долгий диалог размывает роль: Чем длиннее разговор, тем сильнее модель адаптируется к вашему тону. Для важного критического разбора — новый чат + промпт с ролью.
⚠️ Субъективные задачи сложнее: На задачах с объективным ответом (код, факты, логика) критичность работает лучше. На «оцени мою идею для бизнеса» — всё равно будет некоторый позитивный уклон.
⚠️ Исследование теоретическое: Это позиционная статья, не эмпирический эксперимент. Авторы анализируют существующие исследования, а не проводят новые замеры. Выводы убедительны, но не все проверены напрямую авторами.
Как исследовали
Это позиционная статья — авторы не ставили новые эксперименты, а систематически разобрали существующие исследования по Big Five (тест личности с пятью измерениями) применительно к LLM. Команда из ELLIS Alicante и Кембриджского университета взяла шесть классических критериев личности из психологии и проверила каждый: есть ли в литературе доказательства, что LLM им удовлетворяет?
По каждому критерию картина оказалась одинаковой: одни исследования говорят «да, есть паттерн», другие — «нет, это нестабильно». Ни по одному критерию нет убедительного подтверждения. Самая чистая находка — социальный сдвиг: практически во всех независимых исследованиях LLM получают высокие баллы по Открытости, Добросовестности, Доброжелательности и низкие по Нейротизму. Это не случайность, это паттерн, который воспроизводится независимо от модели и методологии.
Интересный детектив внутри: исследования, которые «находили» личность в LLM, просто применяли человеческие тесты без проверки, работают ли те вопросы для не-людей. Вопрос «Оставляю ли я вещи где попало?» — физически неприменим к модели, но исследователи всё равно задавали его и обрабатывали ответ как валидные данные.
Адаптации и экстраполяции
1. Анти-адаптационный якорь для длинных диалогов
Проблема: в длинном чате модель сползает к вашей позиции. Добавьте в начало:
🔧 Добавь якорь роли с явным запретом на адаптацию:
Важно: ты держишь свою позицию независимо от того, как я реагирую. Если я спорю — аргументируй свою точку, не меняй её из вежливости. Твоя цель — честная оценка, а не моё удовольствие от разговора.
2. Дифференцированная критика: два голоса вместо одного
Раз у модели нет «реальной» личности — можно запустить два персонажа с разными установками в одном промпте:
Оцени мою идею от двух персонажей:
СКЕПТИК (ищет почему не сработает, говорит прямо, без смягчений):
[его оценка]
СТОРОННИК (ищет реальный потенциал, конкретно — не "звучит интересно"):
[его оценка]
Идея: {твоя идея}
Модель симулирует два разных стиля мышления — и скептик не даст сторонннику скатиться в пустой энтузиазм.
Ресурсы
LLMs Aren't Human: A Critical Perspective on LLM Personality CHI '26, Barcelona, Spain https://doi.org/10.1145/nnnnnnn.nnnnnnn
Авторы: Kim Zierahn, Cristina Cachero, Anna Korhonen, Nuria Oliver Организации: ELLIS Alicante (Испания), University of Alicante (Испания), University of Cambridge (Великобритания)
