DART: адаптивная к сложности обрезка рассуждений для эффективных больших языковых моделей
КЛЮЧЕВАЯ СУТЬ
Требовать от LLM «думать шаг за шагом» для всех задач одинаково — это как заставлять хирурга с той же тщательностью выполнять операцию на сердце и заклеивать пластырь. Метод DART позволяет обучить модель автоматически подстраивать глубину рассуждений под реальную сложность задачи — простые решаются мгновенно, сложные получают детальную проработку. Модель учится находить точку «достаточности» — минимальную длину рассуждений, которая еще дает правильный ответ, через обучение на спектре от «Болтуна» (генерирует избыточно длинные цепочки) до «Молчуна» (выдает сверхкраткие ответы). Результат: ускорение до 2.4x без потери точности, а иногда с её улучшением на 5-7%.