Вопрос Токены Достойны Большего Внимания УлучшениеБольшихЯзыковыхМоделейбез Обучениячерез ПошаговоеЧтениеи ВниманиеКВопросам Рекалибровка
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохо учитывают условия из конца промпта, которые меняют смысл его начала — модель читает слева направо и не может «заглянуть вперед». Метод SSR++ позволяет заставить модель корректно обрабатывать сложные многоусловные запросы, где финальные требования критически важны (например, «главный CTA — вебинар, а не скидка» или «без морепродуктов в меню»). Вместо немедленного ответа модель делает два прохода: сначала разбирает запрос на части, затем переосмысливает каждую часть с учетом последующих условий — это имитирует то, как человек перечитывает сложный документ. Результат: точность на задачах с противоречивыми условиями выросла с 67% до 89%.