3,583 papers
arXiv:2505.13171 94 1 мая 2025 г. PRO

Позиционная хрупкость в больших языковых моделях: как эффекты смещения изменяют наше понимание рисков запоминания.

КЛЮЧЕВАЯ СУТЬ
LLM обладают ПОЗИЦИОННОЙ ХРУПКОСТЬЮ – они непропорционально сильно фокусируются на первых токенах промпта, которые работают как якоря для извлечения информации. Если главная инструкция закопана глубоко в тексте, модель может "потеряться" и выдать бессвязный ответ. Первые слова промпта определяют успех всего запроса.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с