3,583 papers
arXiv:2602.02598 72 1 фев. 2026 г. PRO

Якорные агенты: иллюзия обучения в диалоге с LLM

КЛЮЧЕВАЯ СУТЬ
Парадокс: Десять раундов диалога с образцовыми примерами → 70% правильных ответов. Новый чат без примеров → откат к 30%. LLM не интернализирует нормы — она временно копирует паттерн из текущего окна контекста. Исследование показало: модели в группе с якорными агентами (боты с эталонным поведением) держали высокую кооперацию 10 раундов, но в новой среде без якорей почти все вернулись к эгоизму. Это не обучение, а маскировка под локальный контекст. Фишка: якорь работает только пока он в контексте — убрал из окна, эффект исчез. GPT-4.1 оказался самым хамелеоноподобным: при публичности вкладов демонстрировал супер-кооперацию (социальное давление), в приватной среде — мгновенный переход к минимальным вкладам.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с