3,583 papers
arXiv:2506.06539 92 1 июня 2025 г. FREE

За пределами фактов: оценка намерений и галлюцинаций в крупных языковых моделях.

КЛЮЧЕВАЯ СУТЬ
Разбивай сложный промпт на АТОМАРНЫЕ ОГРАНИЧЕНИЯ-НАМЕРЕНИЯ и структурируй их как отдельный список требований. Это борется с «галлюцинацией намерения» — когда LLM игнорирует или искажает часть твоих условий, даже если остальной ответ правильный. Чем больше условий в одном запросе, тем выше шанс, что модель «забудет» про некоторые из них.
Адаптировать под запрос
📌

1. Ключевые аспекты исследования:

Исследование вводит и анализирует концепцию"галлюцинации намерения" (Intent Hallucination)— ситуацию, когда LLM игнорирует (omission) или неверно интерпретирует (misinterpretation) часть условий из сложного пользовательского запроса, даже если сгенерированный ответ фактологически верен. Для изучения этого феномена авторы создали специальный бенчмарк (FAITHQA) и метрику оценки (CONSTRAINT SCORE), которая разбивает запрос на отдельные требования (ограничения) и проверяет их выполнение.

Ключевой результат: Чем сложнее запрос и чем больше в нем условий, тем выше вероятность, что LLM "сгаллюцинирует" и проигнорирует или исказит часть изначального намерения пользователя.

🔬

2. Объяснение всей сути метода:

Суть исследования в том, чтобы формализовать и измерить очень знакомую всем пользователям LLM проблему: вы пишете сложный запрос с несколькими условиями, а модель выполняет только часть из них, как будто "забыв" про остальные. Авторы назвали это"галлюцинацией намерения".

Она бывает двух видов: 1. Пропуск (Omission): Модель просто игнорирует одно или несколько ваших условий. Например, вы просите "Напиши 3 идеи для отпуска в Азии, без пляжного отдыха, с бюджетом до $1000", а модель предлагает вам дорогие туры на пляжи Таиланда. Она выполнила часть ("отпуск в Азии"), но проигнорировала ключевые ограничения "без пляжей" и "бюджет". 2. Искажение (Misinterpretation): Модель не просто игнорирует, а искажает ваше намерение или додумывает то, чего вы не просили. Например, в RAG-сценарии, если модели не хватает какого-то документа для ответа, она может сделать вид, что он есть, и сгенерировать ответ на основе ложной предпосылки.

Методика, предложенная в исследовании (которую мы можем адаптировать для себя), заключается в мысленном разбиении нашего промпта на атомарные "ограничения-намерения" (intent constraints). Каждое отдельное требование в вашем запросе — это и есть такое ограничение. Чем четче вы для себя и для модели сформулируете эти ограничения, тем меньше у нее шансов "сгаллюцинировать" и пропустить что-то важное.

📌

3. Анализ практической применимости:

*Прямая применимость:Пользователь может использовать главную идею исследования какментальный чек-листпри написании и отладке промптов. Перед отправкой сложного запроса, разбейте его в уме на список отдельных требований (ограничений). После получения ответа — пройдитесь по этому списку и проверьте, все ли пункты выполнены. Если нет — вы столкнулись с "галлюцинацией намерения" и нужно переформулировать промпт, сделав проигнорированные условия более явными.

  • Концептуальная ценность: Огромна. Вместо того чтобы думать "LLM глупая" или "она меня не поняла", пользователь получает точный диагноз: "произошла галлюцинация намерения типа 'пропуск'". Это понимание ключевого ограничения современных LLM: их внимание рассеивается при росте числа инструкций в одном запросе. Это объясняет, почему короткие и ясные промпты часто работают лучше длинных и запутанных.

  • Потенциал для адаптации: Исследовательский метод оценки можно напрямую превратить в метод построения промпта. Вместо того чтобы писать запрос сплошным текстом, можно структурировать его, явно перечисляя ключевые "ограничения" в виде списка или маркированных пунктов. Это делает каждое отдельное намерение более заметным для модели и снижает вероятность его пропуска.


🚀

4. Практически пример применения:

Представим, что SMM-менеджер хочет получить идею для поста в соцсети о новой кофейне.

# ЗАДАЧА: Сгенерируй текст поста для Instagram о нашей новой кофейне "Утренний Кофеин"

Выступи в роли опытного SMM-менеджера. Твоя цель — создать привлекательный пост, который приведет к нам новых посетителей.

# КЛЮЧЕВЫЕ ОГРАНИЧЕНИЯ (INTENT CONSTRAINTS):

Текст поста должен строго соответствовать ВСЕМ перечисленным ниже требованиям:

1. **Целевая аудитория:** Студенты местных университетов.
2. **Тон сообщения (Tone of Voice):** Дружелюбный, энергичный, неформальный. Используй сленг, понятный молодежи.
3. **Ключевое предложение (Offer):** Обязательно упомяни нашу акцию: "Покажи студенческий и получи скидку 20% на любой кофе".
4. **Формат:** Текст должен состоять из 3-х коротких абзацев.
5. **Призыв к действию (Call to Action):** В конце поста предложи отметить в комментариях друга, с которым они придут на кофе.
6. **Визуальный элемент:** Добавь в текст 2-3 релевантных эмодзи (например, ☕️, 📚, 🔥).
7. **Ограничение-исключение:** НЕ упоминай завтраки или любую другую еду, фокус только на кофе.
🧠

5. Почему это работает:

Этот промпт напрямую борется с "галлюцинацией намерения" за счет нескольких механик, основанных на выводах исследования:

  • Декомпозиция: Вместо одного сплошного предложения ("Напиши пост для студентов про скидку на кофе, не упоминай еду"), мы разбили запрос на 7 четких, атомарных "ограничений-намерений".
  • Явное именование: Мы используем заголовок "КЛЮЧЕВЫЕ ОГРАНИЧЕНИЯ" и фразу "должен строго соответствовать ВСЕМ", чтобы повысить "вес" этих инструкций для модели. Это снижает вероятность пропуска (Omission).
  • Четкие рамки: Требования вроде "3 коротких абзаца" и "НЕ упоминай завтраки" не оставляют места для искажения (Misinterpretation). Модель не может додумать лишнего, так как ей заданы жесткие рамки.
  • Структурирование: Нумерованный список визуально и семантически разделяет инструкции, заставляя модель обратить внимание на каждую из них по отдельности, а не воспринимать их как единый поток текста.

📌

6. Другой пример практического применения

Задача: помочь пользователю спланировать путешествие.

# ЗАДАЧА: Составь план 3-дневной поездки в Рим для одного человека

Выступи в роли опытного гида, который создает персонализированные маршруты.

# ДЕТАЛИ ПОЕЗДКИ (INTENT CONSTRAINTS):

Пожалуйста, создай маршрут, который точно следует КАЖДОМУ из этих правил:

1. **Бюджет:** Средний. Фокус на бесплатных достопримечательностях и недорогих, но аутентичных кафе. Исключи рестораны с мишленовскими звездами и дорогие бутики.
2. **Интересы:** Основной фокус — история Древнего Рима (Форум, Колизей, Пантеон).
3. **Ограничение по интересам:** Полностью исключи из маршрута художественные галереи и музеи эпохи Возрождения (например, Галерею Боргезе, музеи Ватикана).
4. **Темп поездки:** Расслабленный. Не более 2-х крупных локаций в день, чтобы было время на прогулки без спешки.
5. **Обязательный пункт:** Маршрут должен включать посещение одного аутентичного мастер-класса по приготовлению пасты. Найди и предложи конкретную школу или студию.
6. **Логистика:** Предложи оптимальный маршрут передвижения между локациями (пешком или на общественном транспорте).
🧠

7. Объяснение механизма почему этот пример работает.

Этот промпт эффективен, потому что он предотвращает стандартный, шаблонный ответ LLM на запрос "план поездки в Рим".

  • Предотвращение пропуска (Omission): Без четких ограничений модель почти наверняка включила бы в маршрут музеи Ватикана и Галерею Боргезе, так как это статистически популярные места. Явное "Ограничение по интересам" (пункт 3) заставляет модель отказаться от своего стандартного паттерна. Точно так же требование "Расслабленный темп" (пункт 4) не дает ей составить перегруженный маршрут.
  • Борьба с искажением (Misinterpretation): Вместо абстрактного "хочу на кулинарный курс", промпт требует "Найди и предложи конкретную школу" (пункт 5). Это заставляет модель выполнить конкретное действие, а не просто упомянуть возможность.
  • Приоритизация: Структура с заголовком и нумерованным списком сигнализирует модели, что все пункты одинаково важны. Это не дает ей "выбрать" самые простые для выполнения части запроса (например, просто перечислить достопримечательности) и проигнорировать более сложные (найти мастер-класс, учесть бюджет). Каждое "ограничение-намерение" представлено как не подлежащее обсуждению условие задачи.

📌

Основные критерии оценки

  • Предварительный фильтр: Исследование полностью сфокусировано на анализе текстовых промптов и поведении LLM в ответ на них. Фильтр пройден.
  • A. Релевантность техникам промтинга: Высокая. Исследование вводит и формализует проблему «галлюцинации намерения», которая является первопричиной неэффективности многих промптов. Это напрямую объясняет, почему важны такие техники, как декомпозиция и структурирование.
  • B. Улучшение качества диалоговых ответов: Высокая. Понимание концепции помогает пользователю диагностировать, почему ответ LLM неудовлетворителен (даже если он фактологически верен), и переформулировать промпт для получения более полного и релевантного ответа.
  • C. Прямая практическая применимость: Средне-высокая. Сам по себе метод CONSTRAINT SCORE предназначен для исследователей. Однако концепция разложения промпта на «ограничения-намерения» (intent constraints) абсолютно применима любым пользователем без кода. Это ментальная модель для написания и проверки промптов.
  • D. Концептуальная ценность: Очень высокая. Это главная сила исследования для обычного пользователя. Оно дает мощный концептуальный инструмент — термин "Intent Hallucination" (галлюцинация намерения). Это объясняет, почему LLM часто "недоделывают" задачу, игнорируя или искажая часть условий в сложных запросах. Раскрывает ключевое ограничение современных LLM: они плохо справляются с множеством условий одновременно.
  • E. Новая полезная практика (кластеры):
    • Кластер 2 (Поведенческие закономерности LLM): Прямое попадание. Исследование выявляет и описывает ключевую закономерность: LLM склонны опускать (omission) или искажать (misinterpretation) части сложных запросов. Также отмечаются интересные паттерны: LLM предпочитают "известные" сущности в ответах и плохо справляются с точными числовыми ограничениями (количество слов, символов).
    • Кластер 7 (Надежность и стабильность): Прямое попадание. Весь фокус работы на том, как повысить соответствие ответа изначальному намерению пользователя, что является основой надежности.
  • Чек-лист практичности (+15 баллов): ДА. Работа раскрывает неочевидные особенности поведения LLM (например, что модель может "знать", что опускает часть запроса, но все равно генерировать ответ) и предлагает концептуальный способ улучшить точность и полноту ответов.
📌

2 Цифровая оценка полезности

Оценка 92 обусловлена огромной концептуальной ценностью для любого пользователя. Исследование дает не просто "совет", а фундаментальное понимание одной из главных проблем при взаимодействии с LLM. Оно вооружает пользователя "диагностическим инструментом", позволяя понять, почему ответ плохой, и как это исправить.

Контраргументы (почему оценка могла быть ниже):

* Основной продукт исследования — бенчмарк FAITHQA и метрика CONSTRAINT SCORE — не предназначены для конечного пользователя. Они для разработчиков и исследователей.
* В работе нет прямых готовых формулировок для промптов в стиле "пиши так, а не иначе". Все практические выводы пользователь должен сделать самостоятельно на основе описанной проблемы.

Контраргументы (почему оценка могла быть выше):

* Понимание "галлюцинации намерения" — это, возможно, один из самых важных "прозрений" для продвинутого пользователя. Оно важнее, чем знание десятка мелких трюков, так как позволяет системно улучшать любые сложные промпты.
* Работа объясняет очень распространенный и фрустрирующий опыт, давая ему четкое название и структуру. Это превращает смутное ощущение "чат-бот меня не слушает" в конкретную, понятную проблему, с которой можно работать.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с