3,583 papers
arXiv:2505.12662 60 1 мая 2025 г. FREE

Know3-RAG - это фреймворк, ориентированный на знания, с адаптивной генерацией, извлечением и фильтрацией.

КЛЮЧЕВАЯ СУТЬ
Использование внешнего, структурированного "арбитра" (графа знаний) для верификации информации на каждом шаге RAG-процесса значительно повышает фактическую точность ответов LLM.
Адаптировать под запрос
📌

1. Ключевые аспекты исследования:

Это исследование предлагает фреймворкKnow³-RAG, который борется с галлюцинациями LLM путем интеграции структурированных баз знаний (графов знаний, KG) на трех этапах ответа на вопрос: при решении, искать ли информацию, при формировании поискового запроса и при фильтрации найденных данных. Это позволяет LLM опираться не на случайную информацию из интернета, а на проверенные и релевантные факты.

Ключевой результат: Использование внешнего, структурированного "арбитра" (графа знаний) для верификации информации на каждом шаге RAG-процесса значительно повышает фактическую точность ответов LLM.

🔬

2. Объяснение всей сути метода:

Стандартные RAG-системы (которые использует, например, ChatGPT с поиском в Bing) часто ошибаются по двум причинам: 1) они находят информацию, которая звучит убедительно, но является ложной; 2) они находят информацию, которая релевантна по теме, но не относится к конкретному вопросу (например, про баскетболиста Майкла Джордана вместо ученого Майкла Джордана).

Метод Know³-RAG решает эту проблему, внедряя "факт-чекинг" на основе графа знаний (KG) — огромной базы данных, где факты хранятся в виде связей «субъект-предикат-объект» (например, «Бернхард Хайден - ученик - Пауля Хиндемита»).

Процесс работает так: 1. Адаптивный поиск: Сначала система проверяет ответ LLM "по памяти". Она извлекает из него факты-триплеты и сверяет с KG. Если факты неверны или их нет, система понимает, что нужно искать дополнительную информацию. 2. Обогащение запроса: Вместо того чтобы просто искать по исходному вопросу, система находит в KG связанные с вопросом сущности (имена, места, термины) и добавляет их в поисковый запрос. Это делает поиск гораздо более точным. 3. Фильтрация результатов: Получив несколько вариантов сгенерированных "справочных документов", система снова использует KG, чтобы отфильтровать мусор: отбрасывает нерелевантные и фактически неверные документы.

Только после этой тройной проверки очищенная и обогащенная информация подается в LLM для генерации финального ответа. Для обычного пользователя главный вывод: чтобы получить точный ответ, нужно "заземлить" LLM, предоставив ему в промпте набор проверенных фактов и ключевых понятий, связанных с вашим вопросом.

📌

3. Анализ практической применимости:

*Прямая применимость:Низкая. Пользователь не может запустить фреймворк Know³-RAG в чате. Это требует сложной инженерной обвязки.

  • Концептуальная ценность: Высокая. Исследование дает пользователю критически важное понимание:

    1. LLM — не эксперт, а синтезатор: Он может красиво скомпоновать даже неверную информацию.
    2. Контекст — это не всегда благо: Непроверенный или нерелевантный контекст (даже найденный самим ботом) может сбить модель с толку сильнее, чем его отсутствие.
    3. Запрос нужно "утяжелять" фактами: Чтобы направить LLM в нужную сторону, нужно насытить промпт проверенными данными (именами, датами, терминами). Это аналог "обогащения запроса" из статьи.
  • Потенциал для адаптации: Высокий. Пользователь может вручную имитировать ключевой этап метода — "Knowledge-enhanced Reference Generation".

    • Механизм адаптации: Перед тем как задать сложный вопрос, требующий точности, пользователь тратит 2 минуты на поиск в надежном источнике (например, Википедия, официальный сайт компании). Он выписывает 3-5 ключевых фактов (имена, даты, названия, ключевые термины). Затем он вставляет эти факты в свой промпт в специальный раздел "КОНТЕКСТ" или "ИЗВЕСТНЫЕ ДАННЫЕ". Это вручную создает "проверенную справку", которая направляет генерацию и снижает риск галлюцинаций.

🚀

4. Практически пример применения:

Ты — опытный маркетолог. Твоя задача — разработать контент-план для социальных сетей нового кафе.
**Роль:** Маркетолог-стратег для малого бизнеса.
**Задача:** Создать контент-план на 1 месяц (4 недели) для Instagram. План должен быть в виде таблицы с рубриками, темами постов и идеями для сторис.

**[КОНТЕКСТ И ПРОВЕРЕННЫЕ ФАКТЫ О КАФЕ]**
- **Название:** "Зерно и Лист"
- **Концепция:** Спешелти-кофе и редкие сорта китайского чая. Десерты ручной работы без сахара.
- **Целевая аудитория:** Фрилансеры и офисные работники 25-40 лет из ближайшего бизнес-центра "Атриум". Ценят качество, тишину и здоровый образ жизни.
- **Местоположение:** г. Москва, ул. Технологическая, д. 5, первый этаж БЦ "Атриум".
- **Ключевые конкуренты:** "Starbucks" (массовый сегмент, шумный), "Кофемания" (дорогой, фокус на еде).
- **Уникальное торговое предложение (УТП):** Единственное место в районе с таким выбором чая и десертами без сахара. Тихая атмосфера для работы.

Проанализируй предоставленные факты и на их основе разработай подробный контент-план. Сделай акцент на УТП и болях целевой аудитории.

🧠

5. Почему это работает:

Этот промпт работает, потому что он вручную реализует центральную идею Know³-RAG — предоставление проверенного контекста для управления генерацией.

  • Механика "обогащения запроса": Вместо общего запроса "сделай контент-план для кофейни", мы предоставляем точные "сущности" и "отношения" из нашего "графа знаний" о бизнесе: (Зерно и Лист) - (имеет концепцию) - (Спешелти-кофе и чай), (Зерно и Лист) - (находится в) - (БЦ Атриум).
  • Механика "фильтрации": Блок [КОНТЕКСТ И ПРОВЕРЕННЫЕ ФАКТЫ] действует как предварительно отфильтрованный и верифицированный источник правды. LLM вынуждена строить свой ответ на этой базе, а не на своих общих, усредненных и, возможно, нерелевантных знаниях о "типичных кофейнях". Это резко снижает вероятность того, что модель предложит контент про бургеры, акции "кофе с собой для студентов" или будет ориентироваться на неверную ЦА, тем самым повышая релевантность и точность ответа.

📌

6. Другой пример практического применения

Ты — опытный турагент. Помоги мне спланировать детализированный маршрут для поездки.
**Роль:** Эксперт по индивидуальному туризму в Португалии.
**Задача:** Составить пошаговый план на 3 полных дня в Лиссабоне. План должен включать утренние, дневные и вечерние активности, рекомендации по 1-2 ресторанам в день (с указанием типа кухни) и советы по логистике (транспорт).

**[ИЗВЕСТНЫЕ ДАННЫЕ И ПРЕДПОЧТЕНИЯ]**
- **Даты поездки:** 15-17 октября (осень, возможны дожди).
- **Бюджет:** Средний. Не самые дорогие рестораны, но и не фастфуд. Готов использовать общественный транспорт.
- **Состав:** Путешествую один.
- **Интересы:** История, архитектура (особенно мануэлино), уличная фотография, морепродукты, портвейн.
- **Что НЕ интересно:** Ночные клубы, шоппинг, художественные музеи с современной живописью.
- **Особое пожелание:** Хочу обязательно проехать на 28-м трамвае и посетить район Белен.

Основываясь на этих данных, создай реалистичный и интересный маршрут. Учитывай мои интересы и погодные условия (предложи альтернативы для дождливого дня).

🧠

7. Объяснение механизма почему этот пример работает.

Этот промпт эффективен благодаря той же логике ручной имитации Know³-RAG, но в контексте персонализации.

  • "Заземление" на факты: Блок [ИЗВЕСТНЫЕ ДАННЫЕ И ПРЕДПОЧТЕНИЯ] работает как верифицированный граф знаний о предпочтениях пользователя. Такие факты, как (Я) - (имею интерес) - (Архитектура мануэлино) и (Я) - (имею ограничение) - (Не люблю шоппинг), являются неоспоримыми для модели.
  • Предотвращение "галлюцинаций" о предпочтениях: Без этого блока LLM сгенерировала бы стандартный "туристический" маршрут, который мог бы включать шоппинг на Авенида да Либердаде или посещение музея современного искусства Берардо. Предоставленные факты заставляют модель отфильтровать эти нерелевантные для пользователя активности.
  • Повышение точности и релевантности: Прямое указание интересов (морепродукты, портвейн) позволяет модели дать более точные рекомендации по ресторанам, а упоминание дат (октябрь) — учесть сезонные особенности. Это аналог того, как в исследовании обогащенный запрос помогает найти более релевантные "справочные документы" для генерации точного ответа.

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Низкая. Исследование описывает архитектуру системы, а не конкретные формулировки промптов для конечного пользователя. Примеры промптов в приложении предназначены для взаимодействия между компонентами системы, а не для прямого использования человеком.
  • B. Улучшение качества диалоговых ответов: Высокая. Весь фреймворк направлен на снижение галлюцинаций и повышение фактической точности ответов, что является ключевым для качества.
  • C. Прямая практическая применимость: Очень низкая. Метод Know³-RAG — это сложный программный комплекс, который требует доступа к графам знаний (Knowledge Graphs), моделям для встраивания (KGE models), нескольким LLM и специальной логике для их оркестрации. Обычный пользователь не может воспроизвести это в окне чат-бота.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще раскрывает фундаментальные проблемы RAG (Retrieval-Augmented Generation) — получение нерелевантной или фактически неверной информации. Оно дает пользователю мощную ментальную модель: чтобы получить точный ответ, недостаточно просто дать LLM доступ к поиску; нужно контролировать, что она ищет, и проверять найденную информацию перед использованием.
  • E. Новая полезная практика (кластеризация): Работа попадает в несколько кластеров, но в основном как концепция, а не как прямая техника для пользователя.
    • Кластер 6 (Контекст и память): Это продвинутая RAG-стратегия.
    • Кластер 7 (Надежность и стабильность): Основная цель исследования — снижение галлюцинаций.
    • Кластер 2 (Поведенческие закономерности LLM): Объясняет, почему LLM могут "сбиваться с толку" из-за релевантного по теме, но неверного по фактам контекста.
  • Чек-лист практичности (+15 баллов): ДА, работа раскрывает неочевидные особенности поведения LLM (почему стандартный RAG ошибается) и предлагает концептуальные способы улучшить consistency/точность ответов. Это дает +15 баллов к базовой оценке.
📌

2 Цифровая оценка полезности

Аргументы в пользу оценки (60/100): Оценка отражает баланс между огромной концептуальной ценностью и почти нулевой прямой применимостью для обычного пользователя. С одной стороны, это не та работа, которая даст готовые фразы для промпта. С другой стороны, понимание изложенных в ней принципов может кардинально изменить подход пользователя к формулировке сложных запросов, требующих фактической точности. Пользователь начинает понимать, что LLM нужно "вести за руку", предоставляя проверенные факты, а не просто задавать вопрос. 60 баллов — это "Любопытно, но не очень практично" с большим потенциалом для "адаптации под себя", если понять суть.

Контраргументы:

* Почему оценка могла быть выше (до 70-75)? Потому что ключевой принцип — обогащение запроса проверенными сущностями из графа знаний — можно имитировать вручную. Продвинутый пользователь может перед сложным запросом поискать ключевые факты (имена, даты, термины) в Википедии (которая является своего рода графом знаний) и вставить их в промпт в виде контекста. Это ручная адаптация метода, которая может дать значительный прирост качества, что делает исследование более полезным, чем кажется на первый взгляд.
* Почему оценка могла быть ниже (до 40-50)? Потому что для большинства пользователей, которые ищут быстрые и простые решения ("скопируй эту фразу в свой промпт"), исследование бесполезно. Оно требует аналитического склада ума и готовности не просто писать промпт, а проводить предварительную микро-исследовательскую работу. Сложность концепции и техническая реализация делают его недоступным для широкой аудитории в его "чистом" виде.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с