3,583 papers
arXiv:2508.05337 65 7 авг. 2025 г. PRO

Эффективное рассуждение для больших языковых моделей посредством управляемого уверенностью подавления отражений

КЛЮЧЕВАЯ СУТЬ
Обнаружено: продвинутые LLM страдают «избыточным мышлением» (overthinking) — продолжают рассуждать и перепроверять себя даже после нахождения правильного ответа, используя слова-триггеры «Подождите», «Однако», «Как вариант», «Хм». Метод CGRS позволяет сокращать стоимость и время генерации ответов без потери точности. Система автоматически измеряет уверенность модели через энтропию следующих токенов, и при высокой уверенности (>90%) программно занижает вероятность появления этих слов-триггеров. Модель физически не может уйти в цикл самокоррекции — результат: минус 18-42% длины ответа при той же точности.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с