3,583 papers

Меню

arXiv:2602.02991 74 3 фев. 2026 г. PRO

Planning Shift: почему LLM начинает "не с того" и как это использовать

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM планирует весь ответ до генерации первого токена — это доказано математически. Но на человеческих промптах модель стартует со смещения: первые 5-10 токенов идут «по приору» (среднее по обучению), потом модель корректируется и выходит на точный план. Метод позволяет снизить начальный bias и получить точность с первых токенов, не дожидаясь коррекции. Фишка: дай модели сначала сгенерировать промежуточный контекст (список фактов, данные, наблюдения). Когда модель переходит к основной задаче, она стартует с собственного текста (in-distribution), а не с твоего промпта (out-of-distribution). Начальное смещение падает или исчезает — сила планирования стартует сразу с R² ~0.8 вместо ~0.3.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с