3,583 papers
arXiv:2508.04903 83 12 авг. 2025 г. PRO

RCR-Router: эффективная маршрутизация контекста с учетом ролей для многоагентных систем LLM со структурированной памятью

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически теряет фокус, когда в контексте смешана информация для разных этапов задачи — модель пытается учесть всё сразу и выдаёт поверхностные ответы. RCR-Router позволяет решать сложные многоэтапные задачи с высокой точностью, разбивая их на роли и подавая каждой роли только релевантный контекст. Вы вручную симулируете «диспетчера»: назначаете LLM роль (Стратег/Исследователь/Критик), копируете в промпт только нужные фрагменты из предыдущих ответов, а не всю историю диалога — точность повышается, расход токенов падает на 30%.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с