3,583 papers
arXiv:2505.17118 85 1 мая 2025 г. PRO

После извлечения перед генерацией улучшение достоверности больших языковых моделей в RAG

КЛЮЧЕВАЯ СУТЬ
Когда ты даешь LLM документ и задаешь вопрос, возникает КОНФЛИКТ ЗНАНИЙ между тем, что модель "помнит" из обучения, и тем, что написано в твоем тексте. Исследование выделяет четыре сценария: оба источника верны, верен только внутренний, верен только внешний, оба неверны. Ключевая идея – нужно ЯВНО УПРАВЛЯТЬ тем, какому источнику доверять, вместо того чтобы оставлять это на откуп модели. Без четких инструкций LLM плохо справляются с такими конфликтами и могут галлюцинировать неточности.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с