3,583 papers
arXiv:2512.03887 73 4 дек. 2025 г. FREE

Static-DRA: иерархическая декомпозиция для глубокого исследования тем

КЛЮЧЕВАЯ СУТЬ
Проблема: LLM плохо справляется с расплывчатым запросом "исследуй всё про X" — выдаёт поверхностный обзор или уходит в одну сторону, игнорируя другие аспекты. Причина: нет явной структуры, модель сама решает что важно. Static-DRA позволяет провести глубокое структурированное исследование сложной темы через иерархическую декомпозицию: разбиваешь вопрос на подвопросы, каждый подвопрос — на под-подвопросы, исследуешь все ветки отдельно, собираешь в единый отчёт. Фишка: снижай широту с каждым уровнем глубже. На первом уровне — 5 подвопросов, на втором — каждый из них разбиваешь уже на 2-3, а не снова на 5. Это фокусирует ресурсы на релевантных направлениях: 5 + (5×2) = 15 запросов вместо 5×5×5 = 125.
Адаптировать под запрос

TL;DR

Static-DRA — метод структурирования глубокого исследования через иерархическую древовидную декомпозицию с двумя настраиваемыми параметрами: Depth (глубина — сколько уровней вложенности) и Breadth (широта — сколько подвопросов на каждом уровне). Вместо одного большого промпта "исследуй тему X" система разбивает вопрос на подвопросы, каждый подвопрос — на под-подвопросы, и так далее до заданной глубины. Каждую ветку исследует отдельно, потом собирает в единый отчёт.

Ключевой инсайт: широту нужно снижать с глубиной. На первом уровне разбиваем на 5 подвопросов, на втором уровне каждый из них — уже на 2-3, а не снова на 5. Это фокусирует ресурсы на самых релевантных направлениях. Без этого получается экспоненциальный взрыв: 5 подвопросов × 5 под-подвопросов = 25 запросов. С уменьшением: 5 + (5 × 2) = 15 запросов. Исследователи уменьшают breadth в 2 раза на каждом уровне глубже.

Метод работает через три типа агентов: Supervisor (решает, можно ли разбить вопрос дальше), Independent (разбивает на подвопросы и запускает параллельное исследование), Worker (исследует атомарный вопрос через веб-поиск и LLM). Результаты со всех веток собираются в финальный отчёт с оглавлением и цитатами.

🔬

Схема метода

Исследовательский вопрос → Supervisor
├─ Если depth > 0 И можно разбить → Independent Agent
│  ├─ Разбить на N подвопросов (N = breadth)
│  ├─ Для каждого подвопроса → Supervisor (depth - 1, breadth ÷ 2)
│  └─ Собрать результаты в единый отчёт
│
└─ Если depth = 0 ИЛИ нельзя разбить → Worker Agent
   ├─ Веб-поиск (топ-5 результатов, релевантность > 30%)
   ├─ Исследование через LLM
   └─ Отчёт + цитаты

Финал: Оглавление + Отчёт (иерархия тем) + Цитаты

Выполняется через код/API, но принципы применимы вручную в чате.

🚀

Пример применения

⚠️ Сильная зона метода: Комплексные исследовательские задачи, где нужна структура и глубина. НЕ для простых фактических вопросов или творческих задач.

Задача: Исследовать стратегии роста трёх российских маркетплейсов (Wildberries, Ozon, Яндекс.Маркет) для понимания как они конкурируют за продавцов и покупателей — нужно для подготовки питча инвесторам.

Промпт (первый уровень):

Исследуй стратегии роста трёх российских маркетплейсов: Wildberries, Ozon, Яндекс.Маркет.

Разбей на 5 независимых подвопросов, которые можно исследовать параллельно. 
Покрывай разные аспекты: привлечение продавцов, удержание покупателей, 
логистика, монетизация, конкурентные преимущества.

Для каждого подвопроса выдай:
1. Формулировку подвопроса
2. Почему этот аспект критичен для понимания стратегии

Промпт (второй уровень, для одного из подвопросов):

Подвопрос: "Как каждый маркетплейс привлекает и удерживает продавцов?"

Разбей на 2-3 под-подвопроса (уже уже, чем на первом уровне). 
Фокус на конкретных механизмах и отличиях между платформами.

Для каждого под-подвопроса найди:
- Факты из открытых источников
- Примеры из практики продавцов
- Сравнение между маркетплейсами

Промпт (финал):

У меня есть результаты исследования 5 подвопросов, каждый разбит на 2-3 под-подвопроса.

[вставить все результаты]

Собери в единый аналитический отчёт:
1. Оглавление (иерархия тем)
2. Основной текст (сохрани структуру: подвопрос → под-подвопросы)
3. Ключевые инсайты (что отличает стратегии трёх игроков)
4. Список источников

Результат:

Вы получите структурированное исследование с иерархией: на первом уровне — 5 аспектов стратегий (привлечение продавцов, логистика, монетизация и т.д.), на втором уровне — детализация каждого аспекта (например, комиссии, программы лояльности, условия размещения). Каждый под-подвопрос будет исследован через поиск, с фактами и примерами. Финальный отчёт покажет полную картину с оглавлением и источниками.

🧠

Почему это работает

LLM плохо справляется с расплывчатым запросом "исследуй всё про X" — выдаёт поверхностный обзор или уходит в одну сторону, игнорируя другие аспекты. Причина: нет явной структуры, модель сама решает что важно.

LLM отлично умеет декомпозицию — разбивать сложное на простое, фокусированный анализ — глубоко исследовать узкий вопрос, и синтез — собирать части в целое. Static-DRA использует эти сильные стороны: сначала разбивает на независимые подвопросы (используя силу декомпозиции), исследует каждый отдельно (используя силу фокуса), потом собирает в отчёт (используя силу синтеза).

Снижение широты с глубиной — не техническая необходимость, а принцип фокусировки. На первом уровне мы широко обследуем тему (5 направлений). На втором уровне у нас уже есть контекст — мы знаем какие направления релевантны, поэтому углубляемся избирательно (2-3 под-подвопроса вместо 5). Это экономит токены и направляет усилия туда, где они дают максимум пользы.

Рычаги управления:

  • Depth (1-3) → больше = глубже детализация, но экспоненциально больше работы. Для большинства задач 2 уровня достаточно.
  • Breadth (3-7) → больше = шире охват аспектов, но дольше исследование. Начинай с 5.
  • Коэффициент снижения breadth (оригинал: ÷2) → можешь сделать ÷3 для ещё большей фокусировки на глубоких уровнях.
  • Порог релевантности для источников (оригинал: 30%) → если хочешь только топовые источники, подними до 50%.
📋

Шаблон промпта

Уровень 1 (декомпозиция):

Исследуй: {тема}

Разбей на {breadth} независимых подвопросов. Каждый подвопрос должен:
- Покрывать отдельный аспект темы
- Быть исследуемым независимо от других
- Не пересекаться с остальными

Для каждого подвопроса укажи:
1. Формулировка
2. Зачем это важно для понимания темы

Уровень 2 (углубление, если depth > 1):

Подвопрос: {один_из_подвопросов}

Разбей на {breadth ÷ 2} под-подвопроса (уже, чем на предыдущем уровне).
Фокус на конкретных механизмах, примерах, деталях.

Для каждого под-подвопроса:
1. Формулировка
2. Найди факты из открытых источников
3. Приведи конкретные примеры

Уровень 3 (исследование атомарного вопроса):

Вопрос: {атомарный_вопрос}

Исследуй детально:
1. Найди топ-5 релевантных источников (статьи, кейсы, данные)
2. Извлеки ключевые факты и цифры
3. Приведи конкретные примеры
4. Укажи источники (URL или название)

Пиши конкретно, с фактами, без общих слов.

Финальная сборка:

У меня результаты исследования:

Подвопрос 1: {название}
  Под-подвопрос 1.1: {текст}
  Под-подвопрос 1.2: {текст}

Подвопрос 2: {название}
  Под-подвопрос 2.1: {текст}
  ...

[вставь все результаты]

Собери в единый аналитический отчёт:
1. Оглавление (иерархия: подвопросы → под-подвопросы)
2. Основной текст (сохрани структуру и иерархию)
3. Ключевые инсайты (5-7 главных выводов)
4. Список всех источников

Плейсхолдеры: - {тема} — исследовательский вопрос (например, "стратегии роста маркетплейсов") - {breadth} — количество подвопросов на текущем уровне (5 на первом уровне, 2-3 на втором) - {depth} — максимальная глубина вложенности (обычно 2, для очень сложных тем — 3) - {один_из_подвопросов} — конкретный подвопрос для углубления - {атомарный_вопрос} — финальный нераздробляемый вопрос для исследования

🚀 Быстрый старт — вставь в чат:

Вот шаблон Static-DRA для глубокого исследования. Адаптируй под мою задачу: {твоя_тема}. 

Спроси:
- Какую глубину исследования выбрать (depth: 2 или 3)?
- Сколько подвопросов на первом уровне (breadth: 3-7)?
- Есть ли конкретные аспекты, которые обязательно покрыть?
- Нужны ли цифры, кейсы или теоретический анализ?

Потом адаптируй промпты выше и веди меня по шагам.

[вставить все шаблоны выше]

LLM спросит про глубину, широту и фокус исследования — эти параметры критичны для построения правильной иерархии. Она возьмёт структуру из шаблонов и проведёт вас через уровни декомпозиции.

⚠️

Ограничения

⚠️ Много ручной работы: Метод исследовали через код и агентскую систему. Вручную в чате — это 10-20 запросов: разбить на подвопросы, исследовать каждый, потом каждый углубить, потом собрать. Готовьтесь копировать результаты между промптами и собирать части самостоятельно.

⚠️ Высокая стоимость токенов: При depth=2 и breadth=5 получается 5 подвопросов + (5 × 2) под-подвопросов = 15 финальных исследований. Плюс декомпозиция, плюс финальная сборка. Для GPT-4/Claude это может быть 100-200 тысяч токенов на одно большое исследование.

⚠️ Не для простых вопросов: Если вопрос фактический ("Сколько пользователей у Wildberries?") или не разбивается на подвопросы — метод избыточен. Используй для комплексных исследовательских задач, где нужна структура.

⚠️ Теряется связность: Когда исследуешь подвопросы независимо, модель не видит результаты соседних веток до финальной сборки. Может получиться дублирование или упущенные связи между темами. В коде это решалось передачей общего контекста, вручную — сложнее.

🔍

Как исследовали

Исследователи построили агентскую систему на коде с тремя типами агентов: Supervisor (решает разбивать или исследовать), Independent (декомпозирует на подзадачи), Worker (веб-поиск + LLM для атомарного вопроса). Использовали Tavily API для веб-поиска с фильтром релевантности 30% и gemini-2.5-pro для генерации.

Тестировали на DeepResearch Bench — 100 PhD-уровня исследовательских задач по 22 областям (финансы, технологии, история, здоровье и т.д.). Оценивали через RACE framework (Reference-based Adaptive Criteria-driven Evaluation) по четырём критериям: полнота, инсайты, следование инструкциям, читабельность.

Запускали с разными конфигурациями: depth=1/breadth=2, depth=2/breadth=3, depth=2/breadth=5. Ключевая находка: увеличение обоих параметров линейно растит качество. При depth=2 и breadth=5 агент набрал 34.72 балла (из 100), это между gpt-4o-search (30.74) и базовым gemini-2.5-pro без агентов (31.9). Топовые решения (OpenAI Deep Research, Claude Research, Gemini Deep Research) набрали 45-50 баллов — они используют более продвинутые техники.

Интересно, что снижение breadth в 2 раза на каждом уровне глубже оказалось оптимальным балансом. Без снижения получается экспоненциальный взрыв запросов (5^depth), с агрессивным снижением (÷3) — теряется широта охвата на глубоких уровнях.

Агент лучше работал на китайском языке (36.80) чем на английском (32.65) — авторы не дали объяснения, но возможно gemini-2.5-pro лучше обучена на китайских исследовательских текстах. По темам: сильнее в истории (39.60), здоровье (39.22), социальных темах (44.21); слабее в играх (29.17), развлечениях (29.77), литературе (31.16) — вероятно, там нужна субъективная оценка и креативность, а не фактический анализ.

💡

Адаптации и экстраполяции

🔧 Техника: Уменьши depth до 1 → быстрый широкий обзор без углубления

Если нужен быстрый обзор темы без детализации — используй только первый уровень декомпозиции.

Исследуй: {тема}

Разбей на 7 независимых подвопросов (широкий охват).
Для каждого подвопроса:
1. Краткий ответ (2-3 абзаца)
2. 1-2 ключевых факта
3. Один источник

Без углубления — поверхностный обзор всех аспектов.

Экономит токены (7 запросов вместо 20-30), даёт карту темы за 10-15 минут.


🔧 Техника: Асимметричная глубина → углубляйся только в критичные ветки

Не все подвопросы требуют одинаковой глубины. После первого уровня выбери 2-3 самых важных подвопроса и углубляй только их.

Уровень 1: 5 подвопросов

[получили результаты]

Из этих 5 подвопросов выбери 2 самых критичных для понимания темы.
Критерии: наибольшее влияние на выводы, наименее очевидны, требуют детализации.

Для каждого из 2 выбранных:
Разбей на 3 под-подвопроса и исследуй детально.

Остальные 3 подвопроса оставь на текущем уровне детализации.

Даёт фокус на важном, экономит ресурсы на второстепенном.


🔧 Техника: Добавь этап "Связи между ветками" → убери фрагментацию

Проблема оригинального метода — ветки исследуются независимо, связи теряются. Добавь промежуточный шаг перед финальной сборкой.

У меня результаты исследования 5 независимых подвопросов:

Подвопрос 1: {текст}
Подвопрос 2: {текст}
...

Прежде чем собрать в отчёт, найди связи:
1. Какие подвопросы дополняют друг друга?
2. Где выводы из одной ветки усиливают или противоречат другой?
3. Какие сквозные паттерны проходят через несколько веток?

Выдай 3-5 "связующих инсайтов" — выводов, которые появляются только при сопоставлении веток.

Финальный отчёт получится не просто склейкой частей, а синтезом с мета-уровнем.

🔗

Ресурсы

A Hierarchical Tree-based approach for creating Configurable and Static Deep Research Agent (Static-DRA) — Saurav Prateek, December 2025. Репозиторий с кодом и результатами: https://github.com/SauravP97/Static-Deep-Research/

DeepResearch Bench — бенчмарк для оценки Deep Research агентов, 100 PhD-уровня задач по 22 областям. Leaderboard: https://huggingface.co/spaces/Deep-Research/DeepResearchBench

Tavily Web Search API — инструмент для веб-поиска с фильтрацией по релевантности, использован для поиска источников в исследовании.


📋 Дайджест исследования

Ключевая суть

Проблема: LLM плохо справляется с расплывчатым запросом "исследуй всё про X" — выдаёт поверхностный обзор или уходит в одну сторону, игнорируя другие аспекты. Причина: нет явной структуры, модель сама решает что важно. Static-DRA позволяет провести глубокое структурированное исследование сложной темы через иерархическую декомпозицию: разбиваешь вопрос на подвопросы, каждый подвопрос — на под-подвопросы, исследуешь все ветки отдельно, собираешь в единый отчёт. Фишка: снижай широту с каждым уровнем глубже. На первом уровне — 5 подвопросов, на втором — каждый из них разбиваешь уже на 2-3, а не снова на 5. Это фокусирует ресурсы на релевантных направлениях: 5 + (5×2) = 15 запросов вместо 5×5×5 = 125.

Принцип работы

Метод работает как перевёрнутая воронка: широко на поверхности, узко на глубине. Первый уровень: разбей вопрос на 5-7 независимых подвопросов — покрываешь разные аспекты темы. Второй уровень: каждый подвопрос разбей на 2-3 под-подвопроса (уже вдвое меньше) — углубляешься избирательно. Третий уровень (если нужен): исследуй атомарный вопрос через поиск и анализ. Каждую ветку исследуешь отдельно — модель фокусируется на узком вопросе, не размазывается. Финал: собираешь все результаты в единый отчёт с оглавлением и иерархией тем.

Почему работает

LLM отлично умеет три вещи: декомпозицию (разбивать сложное на простое), фокусированный анализ (глубоко исследовать узкий вопрос) и синтез (собирать части в целое). Static-DRA использует эти сильные стороны последовательно. Снижение широты с глубиной — это принцип фокусировки, а не техническая необходимость. На первом уровне широко обследуешь тему (5 направлений). На втором уровне у тебя уже есть контекст — знаешь какие направления релевантны, поэтому углубляешься избирательно (2-3 вместо 5). Это экономит токены и направляет усилия туда, где максимум пользы. В оригинальном исследовании метод тестировали на задачах типа "Проанализируй стратегии роста компаний" или "Исследуй технические решения для задачи X". Структурированный подход давал более полное покрытие темы чем один большой промпт.

Когда применять

Комплексные исследовательские задачи → конкретно для анализа стратегий компаний, обзора технологий, изучения рынков, подготовки аналитических отчётов — особенно когда тема многогранная и нужна структура с разными уровнями детализации. НЕ подходит для: Простых фактических вопросов ("Сколько пользователей у Wildberries?"), творческих задач (написание текстов), задач где нужна связность (модель исследует ветки независимо, связи между темами могут потеряться до финальной сборки).

Мини-рецепт

1. Декомпозиция (первый уровень):
Исследуй: {тема}. Разбей на 5 независимых подвопросов. Каждый должен: покрывать отдельный аспект, быть исследуемым независимо, не пересекаться с остальными. Для каждого укажи формулировку и зачем важен.

2. Углубление (второй уровень):
Возьми один из подвопросов:
Подвопрос: {название}. Разбей на 2-3 под-подвопроса (уже, чем на первом уровне). Фокус на конкретных механизмах, примерах, деталях. Для каждого: формулировка + факты из источников + примеры.

Повтори для остальных подвопросов.

3. Исследование (атомарные вопросы):
Для каждого под-подвопроса:
Вопрос: {под-подвопрос}. Исследуй детально: найди топ-5 релевантных источников, извлеки ключевые факты и цифры, приведи конкретные примеры, укажи источники. Пиши конкретно, с фактами, без общих слов.

4. Финальная сборка:
У меня результаты исследования: [вставить все подвопросы и под-подвопросы с результатами]. Собери в единый аналитический отчёт: 1) Оглавление (иерархия), 2) Основной текст (сохрани структуру), 3) Ключевые инсайты (5-7 главных выводов), 4) Список источников.

Примеры

[ПЛОХО] : Исследуй стратегии роста трёх российских маркетплейсов: Wildberries, Ozon, Яндекс.Маркет. Как они конкурируют за продавцов и покупателей? Модель выдаст общий обзор, но без структуры — может упустить важные аспекты (логистику, монетизацию) или уйти в одну сторону (например, только про покупателей).
[ХОРОШО] : Исследуй стратегии роста трёх маркетплейсов: Wildberries, Ozon, Яндекс.Маркет. Уровень 1 — разбей на 5 подвопросов: - Как привлекают и удерживают продавцов? - Как привлекают и удерживают покупателей? - Какие логистические решения используют? - Как монетизируют платформу? - Какие конкурентные преимущества? Уровень 2 — для каждого подвопроса разбей на 2-3 под-подвопроса. Например, для "привлечение продавцов": комиссии и тарифы, программы лояльности, условия размещения. Исследуй каждый под-подвопрос отдельно с фактами и примерами. Финал: собери в отчёт с оглавлением и инсайтами. Получишь структурированное исследование с иерархией: 5 аспектов → каждый разбит на 2-3 детали → все подкреплено фактами и источниками.
Источник: A Hierarchical Tree-based approach for creating Configurable and Static Deep Research Agent (Static-DRA)
ArXiv ID: 2512.03887 | Сгенерировано: 2026-01-08 23:57
📖 Простыми словами

Static-DRA: иерархическая декомпозиция для глубокого исследования тем

arXiv: 2512.03887

Суть Static-DRA в том, что нейронки катастрофически плохо справляются с масштабными задачами «в лоб». Если ты просишь AI написать глубокое исследование про рынок полупроводников, он выдаст тебе водянистый реферат пятиклассника, потому что модель просто теряется в объеме информации и не знает, за что хвататься. Метод решает это через иерархическую древовидную декомпозицию: он насильно заставляет систему дробить одну большую проблему на мелкие, понятные куски, пока они не станут элементарными.

Это как пытаться съесть слона целиком — ты гарантированно подавишься. Static-DRA работает как профессиональный мясник: он сначала делит тушу на части, потом каждую часть на отрубы, а их уже на стейки. В итоге вместо невнятного «куска мяса» ты получаешь структурированный набор понятных порций, где каждый нюанс проработан отдельно, а не свален в общую кучу. Формально задача та же, но результат принципиально другого качества.

Вся магия держится на двух рычагах: Depth (глубина) и Breadth (широта). Ты сам выставляешь настройки: насколько глубоко копать вглубь темы и сколько смежных аспектов цеплять на каждом уровне. Вместо одного тупого промпта система генерирует целое дерево подвопросов. Каждая ветка исследуется изолированно, что исключает кашу в голове у модели, а потом всё это сшивается в финальный отчет. 10 из 10 по уровню детализации по сравнению с обычным чатом.

Хотя метод обкатывали на сложных научных и рыночных отчетах, принцип универсален. Это идеальная схема для любой аналитики, написания технических заданий или создания учебных курсов. Везде, где нужно не просто «поболтать», а выдать фундаментальный контент без пробелов, эта древовидная структура выносит классические промпты в одни ворота. Глубокое исследование (Deep Research) перестает быть лотереей и превращается в предсказуемый инженерный процесс.

Главный вывод: хватит ждать от нейронки чудес по короткому запросу, она так не умеет. Нужно внедрять статическую структуру, которая не дает модели вилять хвостом и уходить в галлюцинации. Если тебе нужен отчет, за который не стыдно перед боссом, забудь про «напиши подробно» — используй декомпозицию на заданную глубину. Либо ты управляешь структурой поиска, либо получаешь красиво оформленную фигню.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с