3,583 papers
arXiv:2508.05668 76 19 авг. 2025 г. FREE

Search Agents: архитектура многоходового поиска с LLM

КЛЮЧЕВАЯ СУТЬ
LLM делает поверхностный поиск когда задаёшь сложный вопрос — пропускает важные аспекты, зацикливается на первых фактах, не углубляется. Причина: модель не умеет разбивать задачу на подзапросы, не видит результаты предыдущих шагов при планировании следующих, не может менять стратегию на лету. Search Agents решают это через структурированный процесс с явными фазами: планирование → поиск → рефлексия → обновление плана. Три архитектуры под разные задачи: параллельная (разбить вопрос на независимые подзапросы заранее), последовательная (итеративно углубляться после каждого шага), гибридная (древовидный поиск с ветвлением и возвратом). Результат — от поверхностных ответов к глубоким многослойным исследованиям.
Адаптировать под запрос

TL;DR

Search Agents — автономные LLM-агенты, которые контролируют весь процесс поиска через многоходовое взаимодействие. Вместо одного запроса «найди информацию про X» агент сам решает: когда искать, что именно запросить, как углубиться или развернуть поиск, когда остановиться. Это переход от статичного RAG (retrieval-augmented generation) к проактивному исследованию, где агент понимает контекст, планирует стратегию и адаптирует действия на лету.

Ключевой инсайт: LLM плохо справляется со сложным поиском "в лоб", когда нужно одним запросом покрыть многогранный вопрос. Причины: (1) не умеет автоматически разбивать сложную задачу на подзапросы, (2) не видит результаты предыдущих поисков при планировании следующих, (3) не может динамично менять стратегию на основе найденного. Результат — неполные, поверхностные ответы или промахи мимо сути вопроса.

Решение — три архитектурных паттерна поиска: (1) Параллельный — разбить вопрос на независимые подзапросы заранее, выполнить одновременно, (2) Последовательный — искать итеративно, после каждого шага решать "достаточно ли информации или копать дальше", (3) Гибридный — древовидный или графовый поиск с ветвлением и возвратом. Каждый паттерн решает свой класс задач: параллельный для многоаспектных вопросов, последовательный для неопределённых запросов, гибридный для сложных исследований с неизвестными заранее путями.


📌

Схема Search Agent

КОНТЕКСТ: Вопрос пользователя q + контекст C

ШАГ 1: Планирование
π₀ = Plan(q, C) → Стратегия поиска

ШАГ 2: Итеративный цикл (для каждого шага t)
├─ Рефлексия: πₜ₊₁ = Reflect(oₜ, hₜ, πₜ) 
│ [оценка текущих результатов + история → обновление плана]
│
├─ Действие: aₜ₊₁ = Act(πₜ₊₁) 
│ [выполнение поиска или браузинга]
│
└─ Наблюдение: oₜ = результат действия
 [новая информация из поиска]

ШАГ 3: Остановка
Цикл продолжается до накопления достаточной информации → O = {o₁, o₂, ..., oₜ}

ШАГ 4: Синтез
E = Select(q, O) → отбор релевантных фактов
ŷ = Generate(q, E) → финальный ответ

Три архитектуры:

ПАРАЛЛЕЛЬНАЯ — все подзапросы генерируются сразу

Вопрос → [Подзапрос 1, Подзапрос 2, ..., Подзапрос N] → Поиск параллельно → Синтез

ПОСЛЕДОВАТЕЛЬНАЯ — каждый следующий запрос зависит от предыдущих результатов

Вопрос → Поиск 1 → Рефлексия → Поиск 2 → Рефлексия → ... → Финальный ответ

ГИБРИДНАЯ — древовидная или графовая структура с ветвлением

Вопрос → [Путь A → Подпути A1, A2, ...; Путь B → Подпути B1, B2, ...] → Синтез лучшего пути

🚀

Примеры применения

📌

Пример 1: Параллельная декомпозиция

⚠️ Ограничение метода: Параллельный поиск хорош для заранее известных аспектов вопроса. Не подходит для исследований, где направление поиска зависит от промежуточных находок.

Задача: Анализ ситуации с ИИ-регуляциями в России — нужно понять позиции регуляторов, бизнеса и экспертного сообщества одновременно.

Промпт:

Мне нужно исследовать текущее состояние ИИ-регуляций в России. 
Разбей этот вопрос на 3-4 независимых подзапроса, которые покрывают разные углы:
- позиция государства и регуляторов
- мнение бизнеса и стартапов
- экспертная оценка
- зарубежный контекст для сравнения

Для каждого подзапроса сформулируй конкретный поисковый запрос.
Затем найди информацию по каждому запросу параллельно и синтезируй общую картину.

Результат:

Модель выдаст 3-4 подзапроса вида "позиция Минцифры по ИИ 2024", "как российский бизнес относится к ИИ-регуляциям", "мнение экспертов про закон об ИИ". Затем поочерёдно выполнит web search по каждому, соберёт факты и синтезирует структурированный обзор с разбивкой по аспектам. Вы получите не просто список ссылок, а готовую аналитику по каждому углу вопроса.


📌

Пример 2: Последовательное углубление

⚠️ Ограничение метода: Последовательный поиск требует больше токенов и времени. Не подходит для простых фактических вопросов, где ответ находится с первой попытки.

Задача: Выбор стратегии выхода стартапа на рынок РФ — неясно с чего начать, направление зависит от того, что найдём про конкурентов и барьеры входа.

Промпт:

Помоги мне исследовать стратегию выхода [название стартапа] на российский рынок. 

Используй итеративный подход:
1. Начни с общего поиска про рынок и конкурентов
2. После каждого поиска:
 - Оцени: достаточно ли информации для принятия решения?
 - Если нет — сформулируй следующий уточняющий запрос на основе найденного
 - Если да — переходи к синтезу
3. Продолжай до 5-7 итераций или пока не соберёшь полную картину

На каждом шаге явно пиши: "Что нашёл", "Что ещё неясно", "Следующий запрос".

Результат:

Модель начнёт с широкого запроса, например "российский рынок [ниша] 2024". После первого поиска она увидит, что есть 3 крупных игрока, и сформулирует второй запрос: "стратегии [конкурент 1] и [конкурент 2] в России". Затем, обнаружив барьер входа (например, необходимость локализации), сделает третий запрос про требования к локализации. На каждом шаге модель явно рефлексирует — вы увидите её мышление, а не только финальный ответ. Через 4-6 итераций вы получите многослойный анализ с конкретными action items.


📌

Пример 3: Гибридное исследование (древовидный поиск)

⚠️ Ограничение метода: Древовидный поиск — самый токено-затратный. Используй для сложных исследований, где одна ветка может оказаться тупиковой и нужно вернуться к развилке.

Задача: Разработка маркетинговой стратегии для запуска нового продукта — много неизвестных, нужно одновременно исследовать несколько гипотез.

Промпт:

Исследуй стратегию запуска [продукт] на рынок через древовидный поиск:

Корень дерева: Общий вопрос — как запускать [продукт]?

На каждом уровне:
1. Генерируй 2-3 альтернативных направления исследования
2. Исследуй каждое направление параллельно (как отдельную ветку)
3. Оценивай каждую ветку: "перспективная" / "тупиковая" / "требует углубления"
4. Для перспективных веток — создавай подветки со следующими вопросами

Структура:
Корень: Как запускать [продукт]?
├─ Ветка A: Анализ конкурентов
│ ├─ A1: Прямые конкуренты в РФ
│ └─ A2: Зарубежные аналоги
├─ Ветка B: Каналы продвижения
│ ├─ B1: Performance-маркетинг
│ └─ B2: Контент и SMM
└─ Ветка C: Ценообразование
 ├─ C1: Бенчмарк цен в нише
 └─ C2: Готовность платить у ЦА

Проведи 3 уровня углубления, затем синтезируй выводы из всех веток.

Результат:

Модель построит дерево исследования с параллельными ветками. По каждой ветке выполнит web search, оценит перспективность (например, "Ветка A1 показала 5 сильных конкурентов — углубляем", "Ветка B2 не дала конкретики — откладываем"). На втором уровне создаст подветки для перспективных направлений. В конце выдаст синтез: какие стратегии отсеялись, какие выглядят рабочими, где пробелы в информации. Вы получите не линейный отчёт, а многомерный анализ с отброшенными гипотезами — это и есть ценность древовидного подхода.


🧠

Почему это работает

📌

Слабость LLM: "Плоское" мышление при поиске

LLM без явной структуры делает одношаговый статичный поиск — формулирует запрос, получает результаты, генерирует ответ. Проблема: (1) не видит, какие аспекты вопроса покрыты, а какие пропущены, (2) не может динамично корректировать стратегию на основе найденного, (3) не умеет возвращаться к предыдущим развилкам, если текущий путь тупиковый. Результат — поверхностные ответы, пропущенные важные аспекты, зацикливание на первых найденных фактах.

Пример: Вопрос "как выбрать CRM для малого бизнеса?" → LLM делает один поиск "лучшие CRM 2024" → выдаёт топ-5 из первой статьи → пропускает критерии выбора, цены, отзывы российских пользователей, интеграции с 1С. Ответ формально правильный, но не покрывает реальную задачу.

📌

Сильная сторона LLM: Пошаговое рассуждение с обратной связью

LLM отлично справляется с метакогнитивными задачами — планированием, рефлексией, оценкой достаточности информации — если дать ей явную структуру для рассуждения. Она может: (1) разбить сложный вопрос на подзадачи (decomposition), (2) оценить результаты предыдущего шага и скорректировать план (reflection), (3) сгенерировать новые запросы на основе пробелов в текущих данных (adaptive planning).

🔬

Как метод использует сильную сторону

Search Agents переводят хаотичный поиск в структурированный процесс с явными фазами:

1. Параллельная декомпозиция использует способность LLM к систематизации — вместо одного запроса модель генерирует набор независимых подзапросов, покрывающих разные аспекты. Это гарантирует полноту охвата, но требует заранее понимать структуру вопроса.

2. Последовательная рефлексия задействует метакогнитивные способности — после каждого поиска модель явно оценивает: "Что узнал? Что ещё неясно? Куда копать дальше?". Это цикл наблюдение → рефлексия → планирование → действие — паттерн из когнитивной психологии, адаптированный для LLM.

3. Гибридное ветвление комбинирует оба принципа — параллельное исследование альтернатив (как в beam search) + возможность возврата к развилкам (как в MCTS — Monte Carlo Tree Search). Это исследование пространства решений, а не линейный поиск.

📌

Рычаги управления

Параметры глубины:

  • Число итераций (для последовательного) → 3-5 для quick research, 7-10 для deep dive
  • Ширина дерева (для гибридного) → 2-3 ветки = фокус, 4-5 веток = широкий охват
  • Уровни углубления → 2 уровня = обзорно, 3+ уровня = экспертный анализ

Условия остановки:

  • Для последовательного: "Достаточно информации для решения" (субъективно) vs "5 итераций исчерпаны" (жёстко)
  • Для древовидного: "Все ветки оценены" vs "бюджет токенов израсходован"

Критерии оценки веток:

  • Бинарные: "перспективная" / "тупиковая"
  • Количественные: "релевантность 1-10" → отсекать ветки <5
  • Качественные: "требует углубления" / "достаточно фактов"

Явность рассуждений:

  • Убери "Явно пиши на каждом шаге" → модель сразу выдаст финальный ответ (быстрее, но ты не видишь логику)
  • Добавь "Объясни почему выбрал это направление" → получишь обоснование каждого решения (медленнее, но прозрачнее)

📋

Шаблон промпта

📌

Шаблон 1: Параллельная декомпозиция

Мне нужно исследовать: {вопрос}

Используй параллельный подход:
1. Разбей вопрос на {N=3-5} независимых подвопросов, покрывающих разные аспекты
2. Для каждого подвопроса сформулируй конкретный поисковый запрос
3. Выполни поиск по всем запросам
4. Синтезируй единый ответ, объединяющий все аспекты

Структура ответа:
- Подвопросы: [список]
- Поисковые запросы: [список]
- Результаты по каждому аспекту: [краткие выводы]
- Общий синтез: [итоговый ответ]

Плейсхолдеры:

  • {вопрос} — твоя исследовательская задача
  • {N} — число подвопросов (3-5 для баланса полноты и скорости)

📌

Шаблон 2: Последовательное углубление

Исследуй: {вопрос}

Используй итеративный подход:

Шаг 1: Начни с общего поиска про {начальная_область}
Шаг 2-N: После каждого поиска выполни рефлексию:
 - Что узнал: [краткое резюме находок]
 - Что осталось неясным: [пробелы в информации]
 - Следующий вопрос: [уточняющий запрос на основе найденного]
 - Действие: [выполнить поиск ИЛИ остановиться]

Критерий остановки: {условие_остановки}

Максимум {max_iterations=5-7} итераций.

Финальный синтез: Структурированный ответ с отсылками к каждой итерации.

Плейсхолдеры:

  • {вопрос} — исследовательская задача
  • {начальная_область} — с чего начать (например, "общий обзор рынка")
  • {условие_остановки} — "достаточно информации для принятия решения" ИЛИ "покрыты все аспекты {список_аспектов}"
  • {max_iterations} — лимит итераций (5-7 для баланса)

📌

Шаблон 3: Древовидное исследование

Исследуй: {вопрос}

Используй древовидный подход:

КОРЕНЬ: {вопрос}

УРОВЕНЬ 1: Сгенерируй {N_branches=2-3} альтернативных направления исследования
Для каждого направления:
- Формулируй подвопрос
- Выполни поиск
- Оценка: "перспективная" / "тупиковая" / "требует углубления"

УРОВЕНЬ 2-N: Для перспективных веток:
- Создай {M_subbranches=2-3} подветки
- Исследуй каждую подветку
- Оценивай и углубляй

Критерии оценки веток:
- Релевантность найденной информации: {критерий_релевантности}
- Практическая ценность: {критерий_ценности}

Максимум {max_depth=3} уровней углубления.

СИНТЕЗ:
- Карта дерева: [структура всех исследованных веток]
- Перспективные направления: [какие ветки дали ценные результаты]
- Тупиковые ветки: [что не сработало и почему]
- Итоговый ответ: [синтез лучших находок]

Плейсхолдеры:

  • {вопрос} — корневой вопрос
  • {N_branches} — ширина дерева на уровне 1 (2-3 для фокуса, 4-5 для широкого охвата)
  • {M_subbranches} — ширина подуровней (обычно меньше, чем N)
  • {max_depth} — глубина дерева (2-3 уровня оптимально)
  • {критерий_релевантности}, {критерий_ценности} — как оценивать ветки (например, "есть конкретные цифры и кейсы" vs "только общие рассуждения")

🚀 Быстрый старт — вставь в чат:

Вот 3 шаблона для многоходового исследования с поиском. Адаптируй под мою задачу: {твоя задача}.
Спроси у меня, какой подход лучше подходит (параллельный / последовательный / древовидный), и заполни нужный шаблон.

[вставить все 3 шаблона выше]

LLM спросит: (1) суть твоей задачи, (2) известны ли заранее все аспекты (для параллельного) или нужно углубляться по ходу (для последовательного), (3) есть ли альтернативные гипотезы, которые нужно исследовать параллельно (для древовидного). Она возьмёт структуру из шаблона и адаптирует под твой вопрос — заполнит плейсхолдеры, подберёт параметры (число веток, глубину), сформулирует критерии оценки.


⚠️

Ограничения

⚠️ Токено-затратность: Последовательные и особенно гибридные структуры требуют в разы больше токенов, чем простой запрос. Параллельная декомпозиция = 3-5x токенов, последовательное углубление = 5-10x, древовидный поиск = 10-20x. Для простых фактических вопросов это избыточно — используй обычный web search.

⚠️ Время выполнения: Каждая итерация поиска = новый API-запрос. Последовательный поиск с 7 итерациями может занимать несколько минут. Для срочных задач это критично.

⚠️ Качество зависит от промежуточных результатов: Если на первой итерации web search выдал нерелевантные результаты, последующие итерации могут уйти в сторону. Последовательный поиск накапливает ошибки — плохой первый шаг → плохое направление далее.

⚠️ Требует чётких критериев остановки: Без явного условия "когда достаточно" модель может зациклиться или остановиться слишком рано. Нужно либо задать жёсткий лимит итераций, либо сформулировать критерий достаточности информации.

⚠️ Не для всех типов вопросов: Параллельная декомпозиция работает только если вопрос логически разбивается на независимые аспекты. Для вопросов типа "что такое X?" или "когда произошло Y?" это бессмысленное усложнение.


🔍

Как исследовали

Исследователи из Shanghai Jiao Tong University и Central South University провели систематический обзор (survey) литературы о Search Agents. Команда проанализировала более 200 работ с 2022 по 2025 год, охватывая академические статьи и коммерческие решения (OpenAI Deep Research, Gemini, Perplexity).

Структура анализа: (1) Архитектурные паттерны — классификация структур поиска (параллельная/последовательная/гибридная) на основе 80+ методов, (2) Методы оптимизации — сравнение tuning-free (промпты, мульти-агент, test-time scaling) vs tuning-based (SFT, RL) подходов, (3) Применения — картирование использования в 10+ доменах (медицина, финансы, код, e-commerce), (4) Методы оценки — анализ 30+ датасетов и метрик.

Почему выводы такие: Исследователи обнаружили чёткий тренд — ранние работы (2022-2023) использовали параллельную декомпозицию с rule-based логикой, потому что это проще имплементировать. С 2024 года фокус сместился на последовательные и гибридные структуры — они сложнее, но эффективнее для неопределённых задач. Параллельная декомпозиция стала начальной стадией перед углублением.

Что удивило: Коммерческие системы (OpenAI DR, Gemini DR) не раскрывают детали своих алгоритмов, но исследователи через реверс-инжиниринг вывели, что они используют гибридные структуры с RL-оптимизацией. Академические работы отстают — большинство всё ещё на уровне промптов и SFT.

Инсайт для практики: Для обычного пользователя чата (без доступа к RL) последовательная структура с явной рефлексией даёт 80% эффективности коммерческих систем при 20% сложности. Гибридные структуры эффективнее, но требуют значительно больше токенов — их стоит использовать только для по-настоящему сложных исследований.


💡

Адаптации и экстраполяции

📌

🔧 Техника: Комбинация структур для разных фаз

Необязательно выбирать одну структуру. Можно комбинировать на разных этапах:

Фаза 1 (исследование): Параллельная декомпозиция → быстро охватить все аспекты

Фаза 2 (углубление): Последовательное углубление → докопаться до деталей по самому важному аспекту

Фаза 3 (проверка): Древовидный поиск → исследовать альтернативные гипотезы

Исследуй {вопрос} в 3 фазы:

ФАЗА 1 (Охват): Параллельная декомпозиция
- Разбей на 3-4 аспекта
- Быстрый поиск по каждому аспекту
- Определи: какой аспект самый важный / неясный?

ФАЗА 2 (Углубление): Последовательный поиск
- Возьми самый важный аспект из Фазы 1
- Итеративно углубляйся (3-5 итераций)
- Соберай детали, кейсы, цифры

ФАЗА 3 (Проверка): Древовидный поиск (опционально)
- Если есть альтернативные подходы — исследуй параллельно
- Выбери лучший на основе критериев {критерии}

Синтез: Объедини результаты всех фаз

📌

💡 Адаптация для бизнес-исследований

Search Agents в статье применяются к QA и fact-checking, но паттерны полностью переносятся на бизнес-контекст:

Competitive Intelligence:

Проанализируй конкурентов {название_ниши} через древовидный поиск:

Корень: Кто основные игроки и как конкурируют?
├─ Ветка A: Прямые конкуренты в РФ
│ ├─ A1: Их продукты и ценообразование
│ ├─ A2: Маркетинговые стратегии
│ └─ A3: Финансовые показатели (если публичны)
├─ Ветка B: Косвенные конкуренты / substitute products
│ ├─ B1: Какие альтернативы выбирают клиенты
│ └─ B2: Почему переключаются
└─ Ветка C: Новые входящие игроки
 ├─ C1: Стартапы в нише (последние 6 мес)
 └─ C2: Зарубежные компании, планирующие выход в РФ

Для каждой ветки: найди, оцени перспективность, углубись или отсеки.

Due Diligence для инвестиций:

Проведи due diligence компании {название} через последовательный поиск:

Итерация 1: Общая информация (основатели, продукт, рынок)
Итерация 2: Финансы (выручка, прибыль, динамика) — если есть паблик инфо
Итерация 3: Команда и репутация (LinkedIn основателей, отзывы клиентов)
Итерация 4: Риски (правовые, репутационные, конкурентные)
Итерация 5: Перспективы (планы роста, новые продукты, рынки)

После каждой итерации: оценка "всё ок" / "red flags" / "нужно копать глубже".
Критерий остановки: достаточно данных для решения "инвестировать / pass / нужна встреча с командой".

🔗

Ресурсы

A Survey of LLM-based Deep Search Agents: Paradigm, Optimization, Evaluation, and Challenges

Yunjia Xi, Jianghao Lin, Yongzhao Xiao, Zheli Zhou, Rong Shan, Te Gao, Jiachen Zhu, Weiwen Liu, Yong Yu, Weinan Zhang

Shanghai Jiao Tong University, Central South University

Репозиторий: https://github.com/YunjiaXi/Awesome-Search-Agent-Papers

Ключевые отсылки:

  • OpenAI Deep Research (2025) — коммерческое решение для глубоких исследований
  • Perplexity AI (2025) — поисковый агент с цитированием источников
  • Gemini Deep Research (2025) — агент Google для исследовательских задач
  • Self-RAG (Asai et al., 2023) — техника retrieve-generate-critique для улучшения RAG
  • ReAct (Yao et al., 2022) — паттерн reasoning and acting для агентов

📋 Дайджест исследования

Ключевая суть

LLM делает поверхностный поиск когда задаёшь сложный вопрос — пропускает важные аспекты, зацикливается на первых фактах, не углубляется. Причина: модель не умеет разбивать задачу на подзапросы, не видит результаты предыдущих шагов при планировании следующих, не может менять стратегию на лету. Search Agents решают это через структурированный процесс с явными фазами: планирование → поиск → рефлексия → обновление плана. Три архитектуры под разные задачи: параллельная (разбить вопрос на независимые подзапросы заранее), последовательная (итеративно углубляться после каждого шага), гибридная (древовидный поиск с ветвлением и возвратом). Результат — от поверхностных ответов к глубоким многослойным исследованиям.

Принцип работы

Вместо одного статичного запроса — цикл из четырёх шагов. Шаг 1: Планирование стратегии поиска на основе вопроса. Шаг 2: Действие — выполнение поиска или браузинга. Шаг 3: Рефлексия — оценка найденного: «Что узнал? Что неясно? Куда копать дальше?». Шаг 4: Обновление плана на основе результатов. Цикл повторяется до накопления достаточной информации. Ключевой принцип: модель не просто ищет — она исследует пространство решений. Параллельная архитектура для многоаспектных вопросов со заранее известной структурой. Последовательная для неопределённых запросов где направление зависит от промежуточных находок. Гибридная для сложных исследований с неизвестными заранее путями — ветвишься в разные стороны, отсекаешь тупики, возвращаешься к развилкам.

Почему работает

LLM плохо справляется с одношаговым поиском по сложным вопросам — не видит какие аспекты покрыты, не корректирует стратегию, не возвращается к развилкам если путь тупиковый. Результат — пропущенные важные детали и зацикливание на первых фактах. Но LLM отлично работает с метакогнитивными задачами — планированием, оценкой достаточности информации, адаптивным изменением плана — если дать ей явную структуру для рассуждения. Search Agents переводят хаотичный поиск в структурированный процесс: наблюдение → рефлексия → планирование → действие. Это паттерн из когнитивной психологии, адаптированный для LLM. Цена: параллельный поиск требует 3-5x токенов, последовательный 5-10x, древовидный 10-20x токенов по сравнению с простым запросом. Для сложных исследований это оправдано — получаешь многомерный анализ вместо плоского списка ссылок.

Когда применять

Для сложных исследовательских задач где нужно глубокое изучение с разных углов — анализ рынка, разработка стратегии, выбор решения из множества альтернатив. Конкретно: когда ответ не находится с первой попытки, когда важно покрыть все аспекты вопроса, когда направление поиска зависит от промежуточных находок. Используй параллельную архитектуру если заранее знаешь какие аспекты нужно покрыть (например, позиции разных сторон в дискуссии). Последовательную — если неясно с чего начать и нужно углубляться по ходу. Древовидную — если есть несколько гипотез которые нужно исследовать параллельно с возможностью вернуться и попробовать другой путь. НЕ подходит для простых фактических вопросов типа «что такое X» или «когда произошло Y» — для них обычный поиск быстрее и дешевле.

Мини-рецепт

1. Выбери архитектуру под задачу: Многоаспектный вопрос со известной структурой → параллельная (разбей на 3-5 подзапросов сразу). Неопределённый вопрос где направление зависит от находок → последовательная (итерации с рефлексией). Сложное исследование с несколькими гипотезами → древовидная (ветвление и возврат к развилкам).

2. Задай явную структуру рассуждения: Для последовательной — после каждого поиска требуй от модели: «Что узнал? Что неясно? Следующий запрос?». Для древовидной — требуй оценку каждой ветки: «перспективная / тупиковая / требует углубления».

3. Установи критерии остановки: Жёсткий лимит итераций (5-7 для последовательной, 3 уровня для древовидной) ИЛИ условие достаточности («покрыты все аспекты [список]» или «достаточно информации для решения»). Без этого модель может зациклиться или остановиться слишком рано.

4. Запроси синтез в конце: Не просто набор фактов — требуй структурированный ответ с отсылками к каждой итерации или ветке. Для древовидного полезно попросить карту дерева: какие ветки дали ценные результаты, какие оказались тупиковыми и почему.

Примеры

[ПЛОХО]: `Найди информацию про ИИ-регуляции в России` (Модель сделает один поиск, выдаст топ-5 ссылок из первой статьи, пропустит позиции бизнеса и экспертов) [ХОРОШО]: `Исследуй ИИ-регуляции в России через параллельный поиск: 1. Разбей на 3-4 подзапроса: позиция регуляторов, мнение бизнеса, экспертная оценка, зарубежный контекст 2. Сформулируй конкретный поисковый запрос для каждого 3. Выполни поиск по всем запросам 4. Синтезируй общую картину с разбивкой по аспектам` (Получишь не список ссылок, а готовую аналитику по каждому углу вопроса) --- [ПЛОХО]: `Как выбрать стратегию выхода стартапа на рынок РФ?` (Модель выдаст общие советы из первого найденного обзора, без учёта конкурентов и барьеров входа) [ХОРОШО]: `Исследуй стратегию выхода [стартап] на рынок РФ через итеративный подход: 1. Начни с общего поиска про рынок и конкурентов 2. После каждого поиска: оцени достаточно ли информации, сформулируй следующий уточняющий запрос на основе найденного 3. На каждом шаге явно пиши: Что нашёл / Что неясно / Следующий запрос 4. Продолжай до 5-7 итераций или пока не соберёшь полную картину` (Через 4-6 итераций получишь многослойный анализ с конкретными action items, а не поверхностный обзор)
Источник: A Survey of LLM-based Deep Search Agents: Paradigm, Optimization, Evaluation, and Challenges
ArXiv ID: 2508.05668 | Сгенерировано: 2026-01-12 02:41

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с