MIXRAG: Генерация с дополненным поиском типа "смесь экспертов" для понимания текстовых графов и ответов на вопросы
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM теряет точность, когда получает релевантную информацию вперемешку с нерелевантной — модель не умеет фильтровать «шум» в контексте, она пытается использовать всё сразу.
MIXRAG позволяет получать точные ответы на сложные вопросы, требующие специфических знаний (анализ ситуаций, связей между событиями, исторический контекст).
Метод использует команду из трёх типов «экспертов»: один находит ключевые сущности (кто/что), второй — связи между ними (как взаимодействуют), третий — общую картину (контекст). Диспетчер выбирает нужную комбинацию под тип вопроса. Результат: 95% точности против 67% у обычного RAG, потому что модель получает только релевантный контекст без информационного мусора.