3,583 papers
arXiv:2401.14295 60 25 янв. 2024 г. FREE

Разгадывая цепочки, деревья и графы мыслей

КЛЮЧЕВАЯ СУТЬ
Мы явно даем команду объедини результаты
Адаптировать под запрос

Этот промпт эффективно симулирует Graph of Thoughts, потому что он заставляет LLM работать с разными потоками информации независимо, а затем объединять их для получения нового, синтезированного результата.

  1. Независимые "мысли" (Узел 1 и Узел 2): Модель сначала анализирует продукт (Узел 1) и аудиторию (Узел 2) как две отдельные, не связанные задачи. Это позволяет ей глубоко проработать каждый аспект, не смешивая их. В терминах GoT, это два независимых узла в графе.
  2. Агрегация (Узел 3): Это ключевой шаг, который отличает GoT. Мы явно даем команду объедини результаты. Модель должна взять выводы из двух предыдущих шагов и создать на их основе нечто новое. В терминах GoT, Узел 3 — это узел-агрегатор, у которого два "родительских" узла.
  3. Структурированная генерация: Промпт не просто просит "придумать слоганы", а дает четкую инструкцию, как их конструировать (связывает конкретное преимущество продукта с решением конкретной "боли"). Это направляет процесс синтеза в нужное русло.

Такой подход позволяет получить не просто общие креативные идеи, а целевые, стратегически выверенные слоганы, так как они построены на фундаменте предварительного анализа двух ключевых аспектов — продукта и аудитории.

Это исследование систематизирует и сравнивает продвинутые техники промптинга, объединяя их под общей идеей "топологий рассуждений". Авторы показывают, что для решения сложных задач LLM нужно вести по определенной траектории, которая может быть линейной (Chain-of-Thought), ветвящейся для исследования альтернатив (Tree of Thoughts) или сетевой для объединения разных идей (Graph of Thoughts). Эта структуризация помогает модели не сбиться с пути и прийти к более точному и логичному результату.

Ключевой результат: Структурирование процесса мышления LLM в виде цепочек, деревьев или графов значительно повышает качество решения сложных задач по сравнению с простыми запросами.

Суть метода заключается в отказе от идеи, что LLM может решить сложную задачу одним махом. Вместо этого пользователь должен выступить в роли "менеджера проекта" для LLM и разбить большую задачу на последовательность управляемых шагов. Исследование выделяет три основные стратегии (топологии) для этого:

  1. Chain of Thought (CoT) / Цепочка Мыслей: Самый простой и известный метод. Вы просите модель решать задачу последовательно, шаг за шагом. Это как следовать рецепту: сначала сделай А, потом Б, потом В. Это резко снижает вероятность ошибки, так как модель фокусируется на одном действии за раз.

    • Практическое применение: Добавить в промпт фразу "Думай шаг за шагом" или "Решай задачу последовательно".
  2. Tree of Thoughts (ToT) / Дерево Мыслей: Этот метод нужен, когда у задачи есть несколько возможных путей решения, и неясно, какой из них лучший. Вы просите модель сначала сгенерировать несколько разных вариантов или планов (ветви дерева), затем оценить их по заданным критериям, и, наконец, выбрать лучший и продолжить работу с ним.

    • Практическое применение: Вручную вести диалог: "Предложи 3 разных плана для решения этой задачи" -> "Теперь оцени плюсы и минусы каждого плана" -> "Основываясь на оценке, выбери лучший план и детализируй его".
  3. Graph of Thoughts (GoT) / Граф Мыслей: Самый мощный метод для задач, требующих синтеза информации из разных источников. Вы даете модели несколько подзадач, которые она решает параллельно (независимые узлы графа), а затем просите объединить (агрегировать) результаты этих подзадач в единое целое.

    • Практическое применение: "Проанализируй аспект А. Отдельно проанализируй аспект Б. Теперь, на основе анализа А и Б, сделай общий вывод/рекомендацию".

Главный вывод для пользователя: не задавайте сложный вопрос, а конструируйте процесс рассуждения. Ваша задача — предоставить LLM структуру (цепочку, дерево или граф), которая приведет ее к правильному ответу.

  • Прямая применимость:

    • CoT: Абсолютно прямая. Фразы "Думай шаг за шагом", "Разберем по порядку" можно использовать в любом чате и они немедленно улучшают качество ответов на логические и многоэтапные задачи.
    • ToT/GoT: Прямая применимость заключается в ручной симуляции. Пользователь может вести диалог с LLM, последовательно запрашивая генерацию вариантов, их оценку и синтез. Это превращает чат в интерактивный инструмент для решения сложных проблем, где пользователь выступает в роли "контроллера", описанного в статье.
  • Концептуальная ценность:

    • Огромна. Исследование дает пользователю мощную ментальную модель. Вместо того чтобы гадать, почему промпт не сработал, пользователь может диагностировать проблему: "Ага, я задал вопрос, требующий исследования вариантов (ToT), как простой линейный запрос (CoT). Неудивительно, что результат плохой". Это позволяет осознанно выбирать правильную структуру промпта для конкретной задачи.
  • Потенциал для адаптации:

    • Механизм адаптации — это декомпозиция и диалог. Пользователь берет сложную концепцию (например, ToT) и разбивает ее на серию простых промптов, которые он поочередно отправляет в чат.
    • Адаптация ToT:
      1. Промпт 1: "Сгенерируй N идей/планов для [задача]".
      2. Промпт 2: "Для каждой из этих идей оцени [критерии]".
      3. Промпт 3: "Выбери лучшую идею и разработай ее детально".
    • Таким образом, сложная академическая концепция превращается в простую и понятную пошаговую инструкцию для диалога с LLM.

Этот пример симулирует Tree of Thoughts (ToT) для решения бытовой задачи — планирования отпуска.

# Задача
Спланировать недельный отпуск для семьи из двух взрослых и ребенка 10 лет.

# Контекст
*   **Бюджет:** 150 000 рублей.
*   **Период:** Июль.
*   **Интересы:** Взрослые любят природу и спокойный отдых, но не против культурных достопримечательностей. Ребенок активный, любит парки развлечений, море и животных.
*   **Отправная точка:** Москва.

# План действий (Метод Дерева Мыслей)
Ты выступишь в роли опытного турагента. Мы будем действовать по шагам, чтобы найти идеальный вариант.

## Шаг 1: Генерация вариантов (создание "ветвей" дерева)
Предложи **три совершенно разных** варианта для нашего отпуска, которые укладываются в бюджет. Для каждого варианта кратко опиши:
1.  Направление (страна/регион России).
2.  Основная концепция отдыха (пляжный, активный, познавательный).
3.  Ключевые преимущества для нашей семьи.

## Шаг 2: Оценка вариантов (оценка "ветвей")
Теперь, для каждого из трех предложенных вариантов, составь таблицу с оценкой по 5-балльной шкале по следующим критериям:
*   **Соответствие интересам ребенка**
*   **Соответствие интересам взрослых**
*   **Логистика и транспортная доступность**
*   **Вероятность уложиться в бюджет**

## Шаг 3: Финальная рекомендация (выбор лучшей "ветви")
Проанализируй таблицу оценок. На основе анализа, выбери **один наилучший** вариант и подробно распиши примерный план на 7 дней для этого направления.

Этот промпт работает, потому что он не требует от LLM сразу выдать идеальный и сложный ответ. Вместо этого он симулирует метод Tree of Thoughts, разбивая процесс на логические этапы, описанные в исследовании:

  1. Генерация мыслей (Шаг 1): Вместо одного ответа, мы заставляем модель сгенерировать несколько независимых "мыслей" или "путей" (Предложи три совершенно разных варианта). Это "ветви" нашего дерева, которые увеличивают разнообразие и шанс найти удачное решение.
  2. Оценка мыслей (Шаг 2): Модель не просто генерирует идеи, но и выступает в роли "оценщика" (составь таблицу с оценкой). Это заставляет ее проанализировать собственные предложения по четким, заданным пользователем критериям. Это ключевой элемент ToT, который позволяет отсеять слабые варианты.
  3. Выбор и детализация (Шаг 3): На основе формализованной оценки модель делает осознанный выбор (выбери один наилучший вариант), а не случайный. Это гарантирует, что финальный, детализированный план будет основан на наиболее перспективной изначальной идее.

Пользователь, действуя как "контроллер", ведет LLM по структуре дерева, что значительно повышает качество и релевантность итогового результата.

Этот пример симулирует Graph of Thoughts (GoT) для создания креативного контента — рекламного слогана для нового продукта.

# Задача
Придумать 5 ярких и запоминающихся рекламных слоганов для нового продукта.

# Контекст
*   **Продукт:** "Энерго-батончик 'Вулкан'".
*   **Состав:** Орехи, сухофрукты, гуарана, темный шоколад. Не содержит сахара.
*   **Целевая аудитория:** Офисные работники и студенты, которые испытывают спад энергии в середине дня и ищут здоровый, но эффективный перекус.

# План действий (Метод Графа Мыслей)
Мы будем работать по шагам, чтобы создать слоганы, которые бьют точно в цель.

## Узел 1: Анализ преимуществ продукта
Опиши 3 ключевых рациональных преимущества батончика "Вулкан". Фокусируйся на составе и пользе.

## Узел 2: Анализ "болей" аудитории
Опиши 3 ключевые эмоциональные "боли" или проблемы нашей целевой аудитории, связанные с усталостью и работой. Например, "мозг уже не соображает после обеда".

## Узел 3: Агрегация и генерация слоганов
Теперь **объедини** результаты из **Узла 1** и **Узла 2**. Твоя задача — сгенерировать 5 слоганов, каждый из которых связывает конкретное преимущество продукта с решением конкретной "боли" аудитории.

**Пример структуры для слогана:** [Эмоциональная боль] + [Решение через продукт].
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, это суть исследования. Оно систематизирует и дает названия (CoT, ToT, GoT) конкретным структурам промптов и диалогов.
  • B. Улучшение качества диалоговых ответов: Да, все предложенные подходы (цепочки, деревья, графы мыслей) направлены на повышение точности и логичности ответов в сложных задачах.
  • C. Прямая практическая применимость: Да. Хотя полная автоматизация ToT/GoT требует кода, сами концепции могут быть немедленно применены пользователем вручную в любом чате для управления диалогом и декомпозиции задач. CoT ("Думай шаг за шагом") применяется напрямую.
  • D. Концептуальная ценность: Огромная. Это одно из ключевых исследований, которое дает пользователю "ментальную модель" продвинутого промптинга. Оно объясняет, почему простые запросы не работают для сложных задач и предлагает понятную таксономию решений: линейное рассуждение (CoT), исследование альтернатив (ToT) и синтез идей (GoT).
  • E. Новая полезная практика (кластеры): Работа напрямую относится к кластерам 1 (Техники формулирования), 2 (Поведенческие закономерности), 3 (Оптимизация структуры) и концептуально затрагивает 7 (Надежность и стабильность).
  • Чек-лист практичности (+15 баллов): Да, работа дает концептуальные конструкции, показывает, как структурировать сложные запросы, раскрывает особенности поведения LLM (необходимость декомпозиции) и предлагает способы улучшить точность. Бонус в 15 баллов применен.
📌

2 Цифровая оценка полезности

Аргументы в пользу оценки (94/100): Исследование имеет колоссальную практическую и концептуальную ценность для любого пользователя, который хочет выйти за рамки простых вопросов. Оно дает не просто "фишки", а фундаментальное понимание того, как управлять рассуждениями LLM. Концепции CoT, ToT и GoT формируют основу для 90% всех сложных промптов. Пользователь, понявший эту таксономию, сможет самостоятельно конструировать эффективные промпты для практически любой сложной задачи, просто симулируя эти структуры в диалоге. Это исследование — ключ к переходу от "спрашивающего" к "управляющему" диалогом.

Контраргументы (почему не 100/100): * Требуется адаптация: Прямое применение "из коробки" без размышлений возможно только для Chain-of-Thought. Чтобы использовать Tree of Thoughts и Graph of Thoughts, пользователю нужно понять концепцию и вручную вести LLM по шагам (генерируй варианты -> оценивай -> выбирай лучший). Это требует больше усилий, чем просто скопировать готовый промпт. * Академический язык: Само исследование написано научным языком (формальные определения, ссылки на теорию графов), что может отпугнуть неподготовленного пользователя. Ценность нужно "извлекать", она не лежит на поверхности в виде простого списка инструкций.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с