3,583 papers
arXiv:2508.21628 85 29 авг. 2025 г. FREE

Личность имеет значение: черты пользователя предсказывают предпочтения LLM в многоходовых совместных задачах

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM захлебываются в больших объемах сырых данных — модель тратит ресурсы на парсинг вместо решения задачи, что приводит к ошибкам и галлюцинациям. Исследование позволяет понять, почему ваши коллеги в восторге от Claude, а вы предпочитаете GPT — это не случайность, а предсказуемая закономерность. Краткое описание структуры данных + четкая цель работают в разы эффективнее, чем копирование 200 строк таблицы в промпт. Вместо роли стажера, разбирающего кучу документов, модель становится экспертом-консультантомточность в аналитических задачах растет на порядок.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование показывает, что люди с разным типом личности систематически предпочитают разные LLM: аналитики-«Рационалы» склоняются к GPT-4 для решения четких задач, а творческие «Идеалисты» — к Claude 3.5 для креативных и ценностно-ориентированных заданий. Также было обнаружено, что модели лучше справляются с анализом данных, когда получают краткие промпты с описанием задачи, а не длинные запросы, в которые скопирован весь массив "сырых" данных.

Ключевой результат: Выбор "лучшего" чат-бота зависит от вашего типа личности и задачи, а краткость и четкость промпта часто важнее, чем предоставление модели избыточного объема данных.


🔬

Объяснение всей сути метода:

Суть исследования сводится к двум основным выводам, которые можно превратить в практическую методику для пользователя.

  1. "Личностный" фильтр: Модели, как и люди, имеют свой "стиль". GPT-4, согласно исследованию, лучше подходит для задач, где важна точность, логика и достижение конкретной цели (например, анализ данных, извлечение фактов). Claude 3.5 показал себя лучше в задачах, требующих креативности, эмпатии и понимания нюансов (например, написание стихов, редактирование личных писем).

    • Методика: Перед сложной задачей задумайтесь о ее характере. Если это целеориентированная, аналитическая задача — попробуйте GPT-4. Если это творческая, открытая или ценностно-ориентированная задача — попробуйте Claude. Это не жесткое правило, а эвристика, которая может сэкономить вам время и нервы.
  2. Принцип "Не топи в данных": Самый ценный практический вывод исследования — LLM путаются, когда в них "вываливают" большие объемы необработанной информации. Модель тратит ресурсы на парсинг и осмысление этих данных, что приводит к ошибкам. Гораздо эффективнее вести себя как менеджер, ставящий задачу эксперту.

    • Методика: Вместо того чтобы копировать в промпт всю таблицу или текст, сделайте следующее:
      • Опишите контекст: "У меня есть Excel-таблица с данными о продажах. Колонки: 'Дата', 'Товар', 'Цена', 'Регион'".
      • Сформулируйте цель: "Мне нужно найти 5 самых продаваемых товаров в регионе 'Север' за последний квартал".
      • Запросите метод, а не результат: "Подскажи, какую формулу для Google Sheets я могу использовать для этого?" или "Опиши шаги, как мне это сделать".

Этот подход превращает LLM из сбитого с толку стажера в полезного консультанта.


📌

Анализ практической применимости:

  • Прямая применимость: Главный практический совет — избегать копирования больших объемов сырых данных в промпт. Вместо этого следует кратко описать структуру данных и четко сформулировать цель. Например, вместо того чтобы вставлять 200 строк логов сервера, спросите: "У меня есть лог-файл Apache. Как мне найти все записи с кодом ошибки 503 за вчерашний день?". Это немедленно применимый и очень эффективный прием.

  • Концептуальная ценность: Исследование разрушает миф об "универсально лучшей" LLM. Оно дает пользователю понимание, что его личное восприятие "полезности" модели — это не баг, а фича, связанная с его собственным стилем мышления и типом задачи. Это помогает управлять ожиданиями и более осознанно подходить к выбору инструмента.

  • Потенциал для адаптации: Принцип "описывай, а не вываливай" универсален. Его можно адаптировать для любой задачи, связанной с анализом большого контекста:

    • Суммаризация документов: Вместо вставки всего текста спросите: "Я сейчас пришлю текст на 10 страниц о маркетинговой стратегии. На какие ключевые разделы мне обратить внимание, чтобы понять план по привлечению клиентов?".
    • Написание кода: Вместо вставки всего модуля кода спросите: "У меня есть Python-скрипт, который работает с API. Я хочу добавить в него логирование ошибок. В какой части кода это лучше сделать и какой библиотекой воспользоваться?".

🚀

Практически пример применения:

Представим, что вы менеджер по продукту и хотите проанализировать отзывы пользователей, собранные в Google-таблице.

Ты — опытный аналитик данных, специализирующийся на анализе обратной связи от клиентов. Твоя задача — помочь мне разобраться в массиве отзывов.

**# Контекст**
У меня есть Google-таблица с отзывами пользователей о нашем мобильном приложении.
Структура таблицы следующая:
- **ID_отзыва:** Уникальный номер
- **Дата:** Дата оставления отзыва
- **Оценка:** Оценка от 1 до 5 звезд
- **Текст_отзыва:** Текстовый комментарий пользователя
- **Платформа:** iOS или Android

В таблице около 300 записей. Я не буду присылать тебе сами данные.

**# Задача**
Мне нужно понять две вещи:
1.  Какие три основные проблемы (жалобы) чаще всего упоминаются в отзывах с оценкой 1 или 2 звезды?
2.  Какие функции или аспекты приложения больше всего хвалят в отзывах с оценкой 5 звезд?

**# Инструкции к ответу**
1.  Предложи мне пошаговый план, как я могу провести этот анализ самостоятельно, используя стандартные функции Google Sheets (например, фильтры, сводные таблицы или формулы).
2.  Дай примеры ключевых слов или фраз, которые мне стоит искать в тексте, чтобы выявить проблемы (например, "не работает", "вылетает", "сложно") и позитивные моменты (например, "удобно", "быстро", "красивый дизайн").
3.  Твой ответ должен быть структурирован как руководство к действию для человека, не являющегося экспертом в анализе данных.
🧠

Почему это работает:

Этот промпт напрямую использует выводы исследования, а именно принцип "Не топи в данных":

  1. Нет "сырых" данных: Вместо того чтобы вставлять 300 строк отзывов, промпт кратко описывает структуру данных (Контекст). Это избавляет модель от необходимости "разбирать" кашу из текста и позволяет ей сразу сфокусироваться на сути задачи.
  2. Запрос метода, а не прямого ответа: Промпт не просит модель саму проанализировать данные (что она сделала бы с ошибками, как показало исследование). Вместо этого он просит научить пользователя это делать (Предложи мне пошаговый план). Это переводит LLM в роль эксперта-консультанта, в которой она наиболее сильна.
  3. Четкая постановка цели: Раздел Задача четко и недвусмысленно определяет, что именно нужно получить в итоге. Это направляет генерацию и снижает вероятность получения общего, "водянистого" ответа.

📌

Другой пример практического применения

Представим, что вы готовитесь к собеседованию на должность маркетолога и хотите структурировать свой опыт.

Ты — опытный HR-специалист и карьерный консультант. Помоги мне подготовиться к собеседованию.

**# Контекст**
Я иду на собеседование на позицию "Digital-маркетолог". У меня есть резюме, в котором описан мой 5-летний опыт работы в разных компаниях. Я не буду присылать тебе полный текст резюме.
Ключевые области моего опыта:
- SEO-оптимизация (рост трафика на 50%)
- Контекстная реклама (управление бюджетом >$10k/мес)
- Email-маркетинг (создание воронок)
- Аналитика (Google Analytics, Roistat)

**# Задача**
Мне нужно подготовить краткий и убедительный рассказ о себе на 2-3 минуты, который я смогу использовать в начале собеседования. Этот рассказ должен произвести впечатление на рекрутера и показать мою ценность для компании.

**# Инструкции к ответу**
1.  Предложи структуру для моего рассказа (например, 3-4 ключевых блока).
2.  Для каждого блока напиши 2-3 тезиса, которые мне стоит раскрыть, опираясь на мой опыт.
3.  Сформулируй несколько сильных фраз или "крючков", которые помогут мне связать мой опыт с потенциальными потребностями компании.
4.  Дай совет, как закончить рассказ, чтобы плавно передать слово рекрутеру.
🧠

Объяснение механизма почему этот пример работает.

Этот промпт эффективен, потому что он следует тому же принципу краткости и фокуса на методе, что и первый пример:

  1. Суммаризация вместо "стены текста": Вместо того чтобы вставлять полное резюме, пользователь предоставляет краткую выжимку своего опыта (Ключевые области моего опыта). Это позволяет модели мгновенно понять сильные стороны кандидата, не тратя ресурсы на анализ лишней информации (даты, названия компаний и т.д.).
  2. Запрос на структуру и метод: Пользователь не просит "напиши рассказ за меня". Он просит инструменты для создания рассказа: структуру, тезисы, сильные фразы. Это более эффективная стратегия взаимодействия, так как LLM отлично справляется с генерированием шаблонов и фреймворков, которые пользователь затем может наполнить своими личными деталями.
  3. Четкая роль и цель: Роль "карьерного консультанта" и задача "подготовить рассказ на 2-3 минуты" задают очень точные рамки для ответа, что повышает его релевантность и практическую пользу. Модель понимает, что от нее требуется не креативный текст, а структурированный и убедительный контент для деловой коммуникации.
📌

Оценка полезности: 85

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да. Исследование выявило конкретную и важную закономерность: краткие и сфокусированные промпты работают лучше, чем длинные, перегруженные "сырыми" данными, особенно в задачах анализа.
  • B. Улучшение качества диалоговых ответов: Да. Применение вывода о краткости промптов напрямую повышает точность ответов модели при работе с данными.
  • C. Прямая практическая применимость: Да. Совет "будьте краткими и не вставляйте большие объемы данных" может быть немедленно применен любым пользователем без каких-либо специальных инструментов.
  • D. Концептуальная ценность: Очень высокая. Работа блестяще демонстрирует, что не существует "лучшей" LLM для всех, а выбор зависит от типа личности пользователя и характера задачи. Это помогает понять, почему ваш опыт с моделью может кардинально отличаться от опыта коллеги.
  • E. Новая полезная практика (кластеризация): Работа попадает в несколько кластеров:
    • Кластер 2 (Поведенческие закономерности LLM): Четко описывает, что модели "путаются" от избыточных данных в промпте.
    • Кластер 6 (Контекст и память): Дает практическую стратегию по работе с контекстом — не "скармливать" большие куски данных напрямую, а описывать их или запрашивать метод анализа.
  • Чек-лист практичности (+15 баллов): Исследование раскрывает неочевидные особенности поведения LLM (путаница от избытка данных) и предлагает способ улучшить точность ответов (краткость промпта).
📌

Цифровая оценка полезности

Оценка 85 баллов обусловлена сочетанием высокой концептуальной ценности и наличием одного, но очень важного и универсального практического вывода.

Аргументы за оценку: * Концептуальный прорыв для пользователя: Главный вывод о влиянии личности на выбор LLM — это мощный инсайт. Он объясняет, почему споры "GPT vs Claude" бессмысленны в отрыве от контекста задачи и пользователя. Это помогает пользователям перестать искать "серебряную пулю" и начать подбирать инструмент под себя и задачу. * Золотое правило промтинга: Вывод о том, что краткие промпты с описанием данных работают лучше, чем длинные с "сырыми" данными, — это фундаментальный и немедленно применимый совет, который напрямую улучшает качество ответов в аналитических задачах. Он попадает под правило "чёткие выводы, которые можно сразу учесть" и заслуживает высокой оценки.

Контраргументы (почему оценка могла быть ниже или выше): * Почему не 90+: Основной фокус исследования — на психологии взаимодействия, а не на промт-инжиниринге как таковом. Практический совет о краткости промптов является побочным, хотя и очень ценным, наблюдением. Работа не предлагает новых структур или "магических фраз" для промптов. * Почему не 65-70: Хотя основной тезис о личности сложно применить напрямую (мало кто будет менять LLM в зависимости от задачи), практический вывод о вреде "заваливания" модели данными слишком важен, чтобы его игнорировать. Он один поднимает ценность исследования из категории "любопытно" в категорию "очень полезно".


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с