3,583 papers
arXiv:2504.09402 96 1 апр. 2025 г. PRO

Вопрос Токены Достойны Большего Внимания УлучшениеБольшихЯзыковыхМоделейбез Обучениячерез ПошаговоеЧтениеи ВниманиеКВопросам Рекалибровка

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохо учитывают условия из конца промпта, которые меняют смысл его начала — модель читает слева направо и не может «заглянуть вперед». Метод SSR++ позволяет заставить модель корректно обрабатывать сложные многоусловные запросы, где финальные требования критически важны (например, «главный CTA — вебинар, а не скидка» или «без морепродуктов в меню»). Вместо немедленного ответа модель делает два прохода: сначала разбирает запрос на части, затем переосмысливает каждую часть с учетом последующих условий — это имитирует то, как человек перечитывает сложный документ. Результат: точность на задачах с противоречивыми условиями выросла с 67% до 89%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с