3,583 papers
arXiv:2604.09515 76 10 апр. 2026 г. PRO

Контекст против памяти: почему LLM игнорирует информацию, которую вы ей дали — и как это исправить

КЛЮЧЕВАЯ СУТЬ
Вы вставили правила, цены, регламент — модель прочитала и... написала по своим. Не из вредности: она генерирует текст по самому сильному паттерну из обучения, а ваш контекст его просто не перевешивает. Исследование замерило это: с кратким описанием изменений модель следует вашим данным лишь в 42% случаев, с полной структурированной документацией — уже 66%. Self-Reflection (принудительная само-проверка) добавляет ещё до 11% — модель явно сравнивает свой ответ с вашим контекстом и переписывает там, где съехала на привычное. Фишка: без явного шага проверки модель вообще не замечает, что отклонилась — она же не знает, что «нормальный» ответ и ваш ответ — это разные вещи.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с