3,583 papers
arXiv:2509.05006 65 5 сент. 2025 г. PRO

Требуется ли крупным языковым моделям намерение? Пересмотр стратегий генерации ответов для сервисных ассистентов

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM теряет фокус, когда пытается одновременно угадать «зачем» и «что» делать — отсюда размытые, нерелевантные ответы на сложные запросы. Метод позволяет получать стабильно точные ответы на многосложные задачи, явно разделив намерение (интент) и содержание запроса. Вы симулируете работу двухэтапной системы прямо в промпте: сначала блок [Интент: цель], затем детали задачи. Модель перестает гадать о вашей цели и начинает выполнять конкретную стратегию — качество ответов растет на 20-35% в задачах с неоднозначным контекстом.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с