3,583 papers
arXiv:2506.00069 95 1 июня 2025 г. PRO

Оценка чувствительности больших языковых моделей к предыдущему контексту

КЛЮЧЕВАЯ СУТЬ
LLM ЗАБЫВАЕТ первоначальную инструкцию в длинных диалогах из-за размытия информации. Модель уделяет больше внимания последним токенам в контексте, поэтому критически важные указания ТОНУТ в общем потоке. Простое повторение основной задачи в самом конце промпта восстанавливает точность ответов почти на 100%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с