Дерево агентов: улучшение способностей больших языковых моделей к работе с длинными контекстами посредством мультиперспективного рассуждения
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически теряет информацию из середины длинных текстов — классическая проблема «lost in the middle», из-за которой модель игнорирует критические факты, даже если они в контексте. Tree of Agents (TOA) позволяет анализировать длинные документы без потери деталей — разбивая текст на части и заставляя несколько «агентов» (копий LLM) читать их в разном порядке. Ключевая фишка: каждый агент смотрит на те же данные под своим углом — один читает часть A→B→C, другой C→A→B. Модели обмениваются выводами, и консенсус между агентами даёт финальный ответ. Результат: точность выросла на 15-20% в задачах с длинным контекстом по сравнению с обычной подачей всего текста сразу.