3,583 papers
arXiv:2508.15507 88 21 авг. 2025 г. PRO

Think in Blocks: адаптивная глубина рассуждений через явный счётчик блоков

КЛЮЧЕВАЯ СУТЬ
Проблема: LLM сыпет одинаковое количество токенов на простой вопрос "2+3=?" и сложную задачу – нет механизма остановки, модель пишет пока не найдёт ответ. Результат – избыточные рассуждения: 500 токенов на очевидный вопрос, медленные ответы, лишние расходы. Think in Blocks позволяет модели самой управлять глубиной рассуждений – от нуля блоков (прямой ответ) до 8+ (глубокий анализ). Метод выносит "сколько думать?" в явный параметр через XML-теги: модель предсказывает число блоков n, затем генерирует ровно столько шагов. Минус 25% токенов при той же точности – модель учится коротко на лёгких задачах, глубоко на сложных.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с