3,583 papers
arXiv:2512.17325 72 19 дек. 2025 г. PRO

Task Schema и Binding: два механизма in-context learning

КЛЮЧЕВАЯ СУТЬ
Обнаружено: когда LLM учится на примерах в промпте (in-context learning), она использует два разных механизма одновременно. Исследование через подмену активаций нейронов показало физическое разделение: Task Schema (тип задачи 'имя → профессия') живёт в поздних MLP-слоях и переносится на 100%, а Binding (конкретные пары 'Анна → врач') живёт в накопленных активациях и переносится только в 62% случаев. Это объясняет почему произвольные коды ('А→1, Б→2') модель схватывает с двух примеров, а переопределение фактов ('Эйфелева башня в Риме') проваливается в 38% случаев – высокий prior knowledge ('башня в Париже') ломает Binding через сбой внимания, модель копирует не ту пару.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с