3,583 papers
arXiv:2509.04716 85 5 сент. 2025 г. PRO

KERAG: Генерация с дополненным поиском, усиленная знаниями, для продвинутых систем ответов на вопросы

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM теряет точность, когда в контексте смешаны релевантные факты и «шум» — модель не умеет игнорировать лишнее и пытается использовать всё подряд. KERAG позволяет получать точные ответы из больших объёмов информации без галлюцинаций и подтасовки фактов. Метод разбивает задачу на три команды: 1) дай модели сырой текст, 2) заставь её отфильтровать только релевантное, 3) генерируй ответ строго на основе отфильтрованного. Вместо «прочитай всё и ответь» ты говоришь: «сначала выдели нужное, потом думай». Точность ответов вырастает на 40-60% по сравнению с наивным «вот текст, ответь на вопрос».
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с