3,583 papers
arXiv:2511.01170 68 3 нояб. 2025 г. PRO

DART: адаптивная к сложности обрезка рассуждений для эффективных больших языковых моделей

КЛЮЧЕВАЯ СУТЬ
Требовать от LLM «думать шаг за шагом» для всех задач одинаково — это как заставлять хирурга с той же тщательностью выполнять операцию на сердце и заклеивать пластырь. Метод DART позволяет обучить модель автоматически подстраивать глубину рассуждений под реальную сложность задачи — простые решаются мгновенно, сложные получают детальную проработку. Модель учится находить точку «достаточности» — минимальную длину рассуждений, которая еще дает правильный ответ, через обучение на спектре от «Болтуна» (генерирует избыточно длинные цепочки) до «Молчуна» (выдает сверхкраткие ответы). Результат: ускорение до 2.4x без потери точности, а иногда с её улучшением на 5-7%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с