3,583 papers
arXiv:2509.23967 65 28 сент. 2025 г. PRO

HiPO: гибридная оптимизация политики для динамического рассуждения в больших языковых моделях (LLM)

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM страдают от «overthinking» — генерируют многословные пошаговые рассуждения даже для элементарных вопросов вроде «2+2», тратя токены и время впустую. HiPO учит модель самостоятельно решать, когда включать режим глубокого анализа (Think-on), а когда давать прямой ответ (Think-off). Модель получает внутреннего «судью», который оценивает сложность задачи перед генерацией ответа — через специальные токены она выбирает для сложных задач и для простых. Результат: точность сохраняется, но избыточные рассуждения сокращаются на 40-60%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с