TL;DR
Static-DRA — метод структурирования глубокого исследования через иерархическую древовидную декомпозицию с двумя настраиваемыми параметрами: Depth (глубина — сколько уровней вложенности) и Breadth (широта — сколько подвопросов на каждом уровне). Вместо одного большого промпта "исследуй тему X" система разбивает вопрос на подвопросы, каждый подвопрос — на под-подвопросы, и так далее до заданной глубины. Каждую ветку исследует отдельно, потом собирает в единый отчёт.
Ключевой инсайт: широту нужно снижать с глубиной. На первом уровне разбиваем на 5 подвопросов, на втором уровне каждый из них — уже на 2-3, а не снова на 5. Это фокусирует ресурсы на самых релевантных направлениях. Без этого получается экспоненциальный взрыв: 5 подвопросов × 5 под-подвопросов = 25 запросов. С уменьшением: 5 + (5 × 2) = 15 запросов. Исследователи уменьшают breadth в 2 раза на каждом уровне глубже.
Метод работает через три типа агентов: Supervisor (решает, можно ли разбить вопрос дальше), Independent (разбивает на подвопросы и запускает параллельное исследование), Worker (исследует атомарный вопрос через веб-поиск и LLM). Результаты со всех веток собираются в финальный отчёт с оглавлением и цитатами.
Схема метода
Исследовательский вопрос → Supervisor
├─ Если depth > 0 И можно разбить → Independent Agent
│ ├─ Разбить на N подвопросов (N = breadth)
│ ├─ Для каждого подвопроса → Supervisor (depth - 1, breadth ÷ 2)
│ └─ Собрать результаты в единый отчёт
│
└─ Если depth = 0 ИЛИ нельзя разбить → Worker Agent
├─ Веб-поиск (топ-5 результатов, релевантность > 30%)
├─ Исследование через LLM
└─ Отчёт + цитаты
Финал: Оглавление + Отчёт (иерархия тем) + Цитаты
Выполняется через код/API, но принципы применимы вручную в чате.
Пример применения
⚠️ Сильная зона метода: Комплексные исследовательские задачи, где нужна структура и глубина. НЕ для простых фактических вопросов или творческих задач.
Задача: Исследовать стратегии роста трёх российских маркетплейсов (Wildberries, Ozon, Яндекс.Маркет) для понимания как они конкурируют за продавцов и покупателей — нужно для подготовки питча инвесторам.
Промпт (первый уровень):
Исследуй стратегии роста трёх российских маркетплейсов: Wildberries, Ozon, Яндекс.Маркет.
Разбей на 5 независимых подвопросов, которые можно исследовать параллельно.
Покрывай разные аспекты: привлечение продавцов, удержание покупателей,
логистика, монетизация, конкурентные преимущества.
Для каждого подвопроса выдай:
1. Формулировку подвопроса
2. Почему этот аспект критичен для понимания стратегии
Промпт (второй уровень, для одного из подвопросов):
Подвопрос: "Как каждый маркетплейс привлекает и удерживает продавцов?"
Разбей на 2-3 под-подвопроса (уже уже, чем на первом уровне).
Фокус на конкретных механизмах и отличиях между платформами.
Для каждого под-подвопроса найди:
- Факты из открытых источников
- Примеры из практики продавцов
- Сравнение между маркетплейсами
Промпт (финал):
У меня есть результаты исследования 5 подвопросов, каждый разбит на 2-3 под-подвопроса.
[вставить все результаты]
Собери в единый аналитический отчёт:
1. Оглавление (иерархия тем)
2. Основной текст (сохрани структуру: подвопрос → под-подвопросы)
3. Ключевые инсайты (что отличает стратегии трёх игроков)
4. Список источников
Результат:
Вы получите структурированное исследование с иерархией: на первом уровне — 5 аспектов стратегий (привлечение продавцов, логистика, монетизация и т.д.), на втором уровне — детализация каждого аспекта (например, комиссии, программы лояльности, условия размещения). Каждый под-подвопрос будет исследован через поиск, с фактами и примерами. Финальный отчёт покажет полную картину с оглавлением и источниками.
Почему это работает
LLM плохо справляется с расплывчатым запросом "исследуй всё про X" — выдаёт поверхностный обзор или уходит в одну сторону, игнорируя другие аспекты. Причина: нет явной структуры, модель сама решает что важно.
LLM отлично умеет декомпозицию — разбивать сложное на простое, фокусированный анализ — глубоко исследовать узкий вопрос, и синтез — собирать части в целое. Static-DRA использует эти сильные стороны: сначала разбивает на независимые подвопросы (используя силу декомпозиции), исследует каждый отдельно (используя силу фокуса), потом собирает в отчёт (используя силу синтеза).
Снижение широты с глубиной — не техническая необходимость, а принцип фокусировки. На первом уровне мы широко обследуем тему (5 направлений). На втором уровне у нас уже есть контекст — мы знаем какие направления релевантны, поэтому углубляемся избирательно (2-3 под-подвопроса вместо 5). Это экономит токены и направляет усилия туда, где они дают максимум пользы.
Рычаги управления:
- Depth (1-3) → больше = глубже детализация, но экспоненциально больше работы. Для большинства задач 2 уровня достаточно.
- Breadth (3-7) → больше = шире охват аспектов, но дольше исследование. Начинай с 5.
- Коэффициент снижения breadth (оригинал: ÷2) → можешь сделать ÷3 для ещё большей фокусировки на глубоких уровнях.
- Порог релевантности для источников (оригинал: 30%) → если хочешь только топовые источники, подними до 50%.
Шаблон промпта
Уровень 1 (декомпозиция):
Исследуй: {тема}
Разбей на {breadth} независимых подвопросов. Каждый подвопрос должен:
- Покрывать отдельный аспект темы
- Быть исследуемым независимо от других
- Не пересекаться с остальными
Для каждого подвопроса укажи:
1. Формулировка
2. Зачем это важно для понимания темы
Уровень 2 (углубление, если depth > 1):
Подвопрос: {один_из_подвопросов}
Разбей на {breadth ÷ 2} под-подвопроса (уже, чем на предыдущем уровне).
Фокус на конкретных механизмах, примерах, деталях.
Для каждого под-подвопроса:
1. Формулировка
2. Найди факты из открытых источников
3. Приведи конкретные примеры
Уровень 3 (исследование атомарного вопроса):
Вопрос: {атомарный_вопрос}
Исследуй детально:
1. Найди топ-5 релевантных источников (статьи, кейсы, данные)
2. Извлеки ключевые факты и цифры
3. Приведи конкретные примеры
4. Укажи источники (URL или название)
Пиши конкретно, с фактами, без общих слов.
Финальная сборка:
У меня результаты исследования:
Подвопрос 1: {название}
Под-подвопрос 1.1: {текст}
Под-подвопрос 1.2: {текст}
Подвопрос 2: {название}
Под-подвопрос 2.1: {текст}
...
[вставь все результаты]
Собери в единый аналитический отчёт:
1. Оглавление (иерархия: подвопросы → под-подвопросы)
2. Основной текст (сохрани структуру и иерархию)
3. Ключевые инсайты (5-7 главных выводов)
4. Список всех источников
Плейсхолдеры:
- {тема} — исследовательский вопрос (например, "стратегии роста маркетплейсов")
- {breadth} — количество подвопросов на текущем уровне (5 на первом уровне, 2-3 на втором)
- {depth} — максимальная глубина вложенности (обычно 2, для очень сложных тем — 3)
- {один_из_подвопросов} — конкретный подвопрос для углубления
- {атомарный_вопрос} — финальный нераздробляемый вопрос для исследования
🚀 Быстрый старт — вставь в чат:
Вот шаблон Static-DRA для глубокого исследования. Адаптируй под мою задачу: {твоя_тема}.
Спроси:
- Какую глубину исследования выбрать (depth: 2 или 3)?
- Сколько подвопросов на первом уровне (breadth: 3-7)?
- Есть ли конкретные аспекты, которые обязательно покрыть?
- Нужны ли цифры, кейсы или теоретический анализ?
Потом адаптируй промпты выше и веди меня по шагам.
[вставить все шаблоны выше]
LLM спросит про глубину, широту и фокус исследования — эти параметры критичны для построения правильной иерархии. Она возьмёт структуру из шаблонов и проведёт вас через уровни декомпозиции.
Ограничения
⚠️ Много ручной работы: Метод исследовали через код и агентскую систему. Вручную в чате — это 10-20 запросов: разбить на подвопросы, исследовать каждый, потом каждый углубить, потом собрать. Готовьтесь копировать результаты между промптами и собирать части самостоятельно.
⚠️ Высокая стоимость токенов: При depth=2 и breadth=5 получается 5 подвопросов + (5 × 2) под-подвопросов = 15 финальных исследований. Плюс декомпозиция, плюс финальная сборка. Для GPT-4/Claude это может быть 100-200 тысяч токенов на одно большое исследование.
⚠️ Не для простых вопросов: Если вопрос фактический ("Сколько пользователей у Wildberries?") или не разбивается на подвопросы — метод избыточен. Используй для комплексных исследовательских задач, где нужна структура.
⚠️ Теряется связность: Когда исследуешь подвопросы независимо, модель не видит результаты соседних веток до финальной сборки. Может получиться дублирование или упущенные связи между темами. В коде это решалось передачей общего контекста, вручную — сложнее.
Как исследовали
Исследователи построили агентскую систему на коде с тремя типами агентов: Supervisor (решает разбивать или исследовать), Independent (декомпозирует на подзадачи), Worker (веб-поиск + LLM для атомарного вопроса). Использовали Tavily API для веб-поиска с фильтром релевантности 30% и gemini-2.5-pro для генерации.
Тестировали на DeepResearch Bench — 100 PhD-уровня исследовательских задач по 22 областям (финансы, технологии, история, здоровье и т.д.). Оценивали через RACE framework (Reference-based Adaptive Criteria-driven Evaluation) по четырём критериям: полнота, инсайты, следование инструкциям, читабельность.
Запускали с разными конфигурациями: depth=1/breadth=2, depth=2/breadth=3, depth=2/breadth=5. Ключевая находка: увеличение обоих параметров линейно растит качество. При depth=2 и breadth=5 агент набрал 34.72 балла (из 100), это между gpt-4o-search (30.74) и базовым gemini-2.5-pro без агентов (31.9). Топовые решения (OpenAI Deep Research, Claude Research, Gemini Deep Research) набрали 45-50 баллов — они используют более продвинутые техники.
Интересно, что снижение breadth в 2 раза на каждом уровне глубже оказалось оптимальным балансом. Без снижения получается экспоненциальный взрыв запросов (5^depth), с агрессивным снижением (÷3) — теряется широта охвата на глубоких уровнях.
Агент лучше работал на китайском языке (36.80) чем на английском (32.65) — авторы не дали объяснения, но возможно gemini-2.5-pro лучше обучена на китайских исследовательских текстах. По темам: сильнее в истории (39.60), здоровье (39.22), социальных темах (44.21); слабее в играх (29.17), развлечениях (29.77), литературе (31.16) — вероятно, там нужна субъективная оценка и креативность, а не фактический анализ.
Адаптации и экстраполяции
🔧 Техника: Уменьши depth до 1 → быстрый широкий обзор без углубления
Если нужен быстрый обзор темы без детализации — используй только первый уровень декомпозиции.
Исследуй: {тема}
Разбей на 7 независимых подвопросов (широкий охват).
Для каждого подвопроса:
1. Краткий ответ (2-3 абзаца)
2. 1-2 ключевых факта
3. Один источник
Без углубления — поверхностный обзор всех аспектов.
Экономит токены (7 запросов вместо 20-30), даёт карту темы за 10-15 минут.
🔧 Техника: Асимметричная глубина → углубляйся только в критичные ветки
Не все подвопросы требуют одинаковой глубины. После первого уровня выбери 2-3 самых важных подвопроса и углубляй только их.
Уровень 1: 5 подвопросов
[получили результаты]
Из этих 5 подвопросов выбери 2 самых критичных для понимания темы.
Критерии: наибольшее влияние на выводы, наименее очевидны, требуют детализации.
Для каждого из 2 выбранных:
Разбей на 3 под-подвопроса и исследуй детально.
Остальные 3 подвопроса оставь на текущем уровне детализации.
Даёт фокус на важном, экономит ресурсы на второстепенном.
🔧 Техника: Добавь этап "Связи между ветками" → убери фрагментацию
Проблема оригинального метода — ветки исследуются независимо, связи теряются. Добавь промежуточный шаг перед финальной сборкой.
У меня результаты исследования 5 независимых подвопросов:
Подвопрос 1: {текст}
Подвопрос 2: {текст}
...
Прежде чем собрать в отчёт, найди связи:
1. Какие подвопросы дополняют друг друга?
2. Где выводы из одной ветки усиливают или противоречат другой?
3. Какие сквозные паттерны проходят через несколько веток?
Выдай 3-5 "связующих инсайтов" — выводов, которые появляются только при сопоставлении веток.
Финальный отчёт получится не просто склейкой частей, а синтезом с мета-уровнем.
Ресурсы
A Hierarchical Tree-based approach for creating Configurable and Static Deep Research Agent (Static-DRA) — Saurav Prateek, December 2025. Репозиторий с кодом и результатами: https://github.com/SauravP97/Static-Deep-Research/
DeepResearch Bench — бенчмарк для оценки Deep Research агентов, 100 PhD-уровня задач по 22 областям. Leaderboard: https://huggingface.co/spaces/Deep-Research/DeepResearchBench
Tavily Web Search API — инструмент для веб-поиска с фильтрацией по релевантности, использован для поиска источников в исследовании.
