3,583 papers
arXiv:2601.03542 63 7 янв. 2026 г. PRO

Layer-Order Inversion: почему модели решают многошаговые задачи не так, как мы думали

КЛЮЧЕВАЯ СУТЬ
Layer-Order Inversion — обнаруженный феномен в работе LLM: модель может "вспомнить" финальный ответ раньше, чем промежуточные шаги. Исследователи проверяли популярную гипотезу "hop-aligned circuits" — идею что модель решает многошаговые вопросы последовательно, слой за слоем (как "сначала вспомнить А, потом через А найти Б, потом через Б найти В"). Оказалось — это работает только на простых двухшаговых задачах.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с