3,583 papers
arXiv:2511.04072 38 6 нояб. 2025 г. FREE

План знаний: большие языковые модели с расширенным поиском для ответа на вопросы по временным графам знаний

КЛЮЧЕВАЯ СУТЬ
Сложные вопросы провоцируют LLM на галлюцинации, потому что модель пытается решить многоэтапную логическую цепочку за один проход. Метод Plan of Knowledge позволяет превратить хаотичный запрос в структурированный план выполнения — вы даёте модели не вопрос, а последовательность простых команд-операторов. Вместо «Проанализируй отзывы» вы пишете: 1) Retrieve: извлеки негатив, 2) Rank: отсортируй по частоте, 3) Reason: сделай вывод — и модель перестаёт додумывать, начинает выполнять. Точность вырастает на 40-60% в задачах с временными последовательностями и многоэтапной логикой.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование предлагает метод "Plan of Knowledge" (План Знаний), который значительно повышает точность ответов LLM на сложные вопросы. Вместо того чтобы задавать вопрос напрямую, пользователю предлагается сначала составить для модели четкий план действий из последовательности простых команд-операторов: Retrieve (Найди информацию), Rank (Отсортируй) и Reason (Сделай вывод). Этот подход заставляет LLM решать задачу по шагам, что резко снижает количество ошибок и галлюцинаций, особенно в задачах, требующих анализа последовательностей или временных рамок.

Ключевой результат: Структурированное планирование рассуждений с помощью явных операторов работает значительно лучше, чем стандартные промпты или даже метод "Думай шаг за шагом".


🔬

Объяснение всей сути метода:

Суть метода "Plan of Knowledge" (PoK) заключается в том, чтобы перестать относиться к LLM как к "черному ящику", который должен сам догадаться, как решить вашу сложную задачу. Вместо этого вы выступаете в роли менеджера проекта, а LLM — в роли исполнителя, которому вы даете четкий и пошаговый план работы.

Этот план состоит из простых, понятных команд (операторов): 1. Retrieve (Извлеки/Найди): Эта команда приказывает модели найти конкретные факты или данные. Например: "Найди, когда была основана компания Apple" или "Извлеки из текста все упоминания о проекте 'Феникс'". 2. Rank (Ранжируй/Отсортируй): Эта команда используется для упорядочивания найденной информации. Например: "Отсортируй найденные события по хронологии" или "Ранжируй эти опции от самой дешевой к самой дорогой". 3. Reason (Рассуждай/Сделай вывод): Эта команда заставляет модель сделать логический вывод на основе ранее найденной и отсортированной информации. Например: "Основываясь на отсортированном списке, определи, кто был первым" или "Сравни характеристики и сделай вывод, какой продукт лучше".

Как это работает на практике: Вы берете свой сложный вопрос (например, "Кто из актеров, снимавшихся у Тарантино, получил Оскар после съемок в его фильме, а не до?") и вручную разбиваете его на план:

  1. Retrieve: Составь список ключевых актеров, снимавшихся в фильмах Квентина Тарантино.
  2. Retrieve: Для каждого актера из списка [ответ 1] найди, получал ли он Оскар и в каком году.
  3. Retrieve: Для каждого актера из списка [ответ 1] найди годы съемок в фильмах Тарантино.
  4. Reason: Сравни год получения Оскара с годами съемок у Тарантино для каждого актера и отфильтруй тех, кто получил награду после.

Подавая такой план в промпте, вы направляете "внимание" модели, не давая ей сбиться с пути и выдумать ответ. Вы превращаете одну сложную задачу в несколько простых, с которыми LLM справляется гораздо надежнее.


📌

Анализ практической применимости:

  • Прямая применимость: Исключительно высокая. Любой пользователь может взять свои операторы (не обязательно Retrieve, Rank, Reason) и составить план для своей задачи прямо в окне чата. Например, для написания статьи можно использовать операторы Brainstorm_Ideas, Create_Outline, Draft_Section, Write_Conclusion. Это готовый к использованию паттерн промптинга.

  • Концептуальная ценность: Огромная. Исследование наглядно доказывает, что LLM — это не "сознание", а мощный инструмент для выполнения последовательных операций. Оно учит пользователя мыслить как "программист" для LLM, где промпт — это не вопрос, а скрипт (план) для выполнения. Это помогает понять, почему LLM "тупят" на сложных задачах и как этого избежать.

  • Потенциал для адаптации: Метод универсален. Операторы Retrieve, Rank, Reason — это лишь пример для аналитических задач. Их можно и нужно заменять на любые другие, релевантные вашей сфере:

    • Маркетинг: Analyze_Audience, Generate_Headlines, Write_Ad_Copy, Suggest_Visuals.
    • Программирование: Decompose_Problem, Write_Function_Signature, Implement_Logic, Generate_Tests.
    • Юриспруденция: Identify_Legal_Issue, Find_Relevant_Statutes, Analyze_Case_Law, Formulate_Argument. Механизм адаптации прост: определите ключевые логические шаги, которые вы сами бы предприняли для решения задачи, и превратите их в "операторы" для вашего плана.

🚀

Практически пример применения:

Ты — опытный маркетолог-аналитик. Твоя задача — проанализировать отзывы клиентов на новый фитнес-браслет "VitaBand" и подготовить сводку для продуктовой команды.

**Контекст:**
Ниже приведены 15 отзывов клиентов.

<отзывы>
1. "Батарея держит всего день, это ужасно. Но экран яркий и шаги считает точно."
2. "Очень нравится дизайн, но приложение для телефона постоянно вылетает."
3. "Цена отличная, но пульсометр врет безбожно во время тренировки."
4. "Водонепроницаемость — супер! Плаваю с ним в бассейне. Жаль, что нет GPS."
5. "Приложение неудобное, не могу найти статистику сна."
6. "Дисплей на солнце почти не видно. Зато заряжается быстро."
7. "Потерял зарядку, нигде не могу купить новую. Поддержка молчит."
8. "Шагомер точный, сравнивал с телефоном. Но батарея — разочарование."
9. "Пульс показывает какой-то бред, 180 ударов в покое. Дизайн красивый."
10. "Наконец-то нашел браслет, с которым можно плавать! Все работает."
11. "Экран тусклый, а батарея садится к вечеру. Не рекомендую."
12. "Синхронизация с приложением занимает вечность. Сам браслет легкий и удобный."
13. "Нет GPS, для бега бесполезен. Вернул в магазин."
14. "Самый большой минус — время работы. В остальном все устраивает."
15. "Не могу разобраться с приложением, очень запутанный интерфейс."


**Задание:**
Выполни анализ, строго следуя этому плану:

**Plan of Knowledge:**
1.  **`Retrieve`**: Из всех отзывов извлеки и сгруппируй все положительные упоминания (сильные стороны продукта).
2.  **`Retrieve`**: Из всех отзывов извлеки и сгруппируй все отрицательные упоминания (слабые стороны продукта).
3.  **`Rank`**: Проанализируй список отрицательных упоминаний из шага 2 и ранжируй проблемы по частоте упоминания, от самой частой к самой редкой.
4.  **`Reason`**: На основе шагов 1 и 3, сформулируй краткую сводку для продуктовой команды. В сводке должно быть два раздела: "Что хвалят пользователи (сохранить и усилить)" и "Главные проблемы для исправления (приоритет для команды)".
🧠

Почему это работает:

Этот промпт работает за счет принудительной декомпозиции аналитической задачи, что предотвращает поверхностный ответ LLM.

  • Шаги 1 и 2 (Retrieve): Вместо того чтобы позволить модели самой решать, что важно, а что нет, мы заставляем ее сначала провести "инвентаризацию" — собрать все факты (положительные и отрицательные) без оценки. Это создает надежную базу данных для дальнейшего анализа.
  • Шаг 3 (Rank): Это ключевой аналитический шаг. Мы не просто просим "найти проблемы", а даем конкретную инструкцию: "ранжируй по частоте". Это заставляет модель не просто перечислить недостатки, а выполнить количественный анализ, что приводит к более ценному выводу (например, "проблема с батареей — самая массовая").
  • Шаг 4 (Reason): Этот шаг является синтезом. Модель не выдумывает рекомендации из воздуха, а обязана основывать их на результатах предыдущих, строго определенных шагов. Это гарантирует, что итоговая сводка будет основана на данных из отзывов, а не на общих знаниях модели о фитнес-браслетах.

📌

Другой пример практического применения

Ты — креативный сценарист и консультант по сторителлингу. Помоги мне разработать концепцию для короткометражного фильма.

**Исходная идея:**
Фильм о старом часовщике, который обнаруживает, что может "ремонтировать" упущенные моменты в жизнях людей, починив их старые часы.

**Задание:**
Проработай эту идею, строго следуя творческому плану:

**Plan of Knowledge:**
1.  **`Brainstorm`**: Придумай 3 возможных центральных конфликта для этой истории. Например: (А) Часовщик пытается исправить свою главную ошибку в прошлом. (Б) К нему приходит клиент с просьбой, выполнение которой будет иметь ужасные последствия. (В) Его дар начинает исчезать.
2.  **`Retrieve`**: Для самого драматичного конфликта из шага 1 (выбери на свой вкус), определи ключевые символы и метафоры, связанные со временем и сожалением (например, остановившиеся часы, паутина на циферблате, ржавый маятник).
3.  **`Rank`**: Разработай структуру сюжета из 5 ключевых сцен: (1) Завязка: знакомство с часовщиком и его даром. (2) Первое событие: появляется клиент/проблема. (3) Кульминация: часовщик принимает ключевое решение. (4) Развязка: последствия его решения. (5) Финал: как изменился герой или мир.
4.  **`Reason`**: Напиши краткий синопсис (150-200 слов) для фильма, объединив результаты шагов 1-3 в связный рассказ.
🧠

Объяснение механизма почему этот пример работает.

Этот промпт эффективно направляет творческий процесс LLM, который часто бывает хаотичным, в структурированное русло.

  • Шаг 1 (Brainstorm): Вместо того чтобы сразу писать историю, мы заставляем модель сначала исследовать пространство вариантов. Это помогает найти более сильную и оригинальную основу для сюжета, чем первая пришедшая в "голову" идея.
  • Шаг 2 (Retrieve/Brainstorm): Этот шаг заставляет модель думать не только о сюжете, но и о художественной выразительности. Поиск символов и метафор обогащает историю, делая ее глубже и образнее.
  • Шаг 3 (Rank/Structure): Здесь мы используем классическую сценарную структуру как "скелет" для истории. Это гарантирует, что у сюжета будет начало, середина и конец, а не просто набор несвязанных событий. Это самый важный шаг для придания истории формы.
  • Шаг 4 (Reason/Synthesize): Финальный шаг собирает все наработки — конфликт, символы и структуру — в единое целое. Модель не пишет синопсис с нуля, а компилирует его из предварительно одобренных и проработанных элементов, что обеспечивает высокое качество и соответствие изначальному замыслу.
📌

Оценка полезности: 92

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, исследование предлагает конкретную структуру промпта — "Plan of Knowledge" (PoK), которая использует операторы Retrieve, Rank, Reason. Это прямая техника формулирования.
  • B. Улучшение качества диалоговых ответов: Да, исследование демонстрирует значительное улучшение точности ответов на сложные вопросы, особенно связанные с последовательностью и временем, что напрямую транслируется в более надежные ответы в чате.
  • C. Прямая практическая применимость: Да, основной метод (декомпозиция задачи на план) может быть применен пользователем вручную в любом чат-боте без кода и специальных инструментов.
  • D. Концептуальная ценность: Очень высокая. Метод PoK дает пользователю мощную "ментальную модель" для взаимодействия с LLM: не просто задавать вопрос, а давать модели "план выполнения" задачи, что объясняет, почему декомпозиция работает лучше прямого запроса.
  • E. Новая полезная практика: Да, работа попадает сразу в несколько кластеров:

    • Кластер 1 (Техники формулирования): PoK — это продвинутая форма декомпозиции, более структурированная, чем Chain-of-Thought.
    • Кластер 2 (Поведенческие закономерности): Исследование наглядно показывает, как LLM терпят неудачу (галлюцинируют) при решении многоэтапных логических задач без четкого плана.
    • Кластер 7 (Надежность и стабильность): Предложенный метод напрямую нацелен на снижение галлюцинаций и повышение фактической точности.
  • Чек-лист практичности (+15 баллов): Да, исследование дает готовые конструкции (Retrieve, Rank, Reason), показывает, как структурировать сложные запросы, и раскрывает неочевидные особенности поведения LLM.

📌

Цифровая оценка полезности

Аргументы в пользу высокой оценки (92/100): Основная идея исследования — "Plan of Knowledge" (PoK) — является чрезвычайно ценной и практически применимой для любого пользователя LLM. Она предлагает перейти от простого "думай шаг за шагом" к созданию явного, структурированного плана действий для модели с использованием понятных операторов (Retrieve, Rank, Reason). Это мощный фреймворк для решения сложных задач, который пользователь может реализовать вручную в своем промпте. В статье есть прямые примеры промптов (Таблица I) и кейсы (Таблицы IX, X), которые наглядно демонстрируют превосходство этого метода над прямыми запросами и даже над GPT-4.

Контраргументы (почему не 100): * Техническая глубина: Значительная часть статьи посвящена техническим деталям, недоступным обычному пользователю, таким как дообучение (fine-tuning) моделей-ретриверов, создание векторных хранилищ (TKS) и использование контрастивного обучения. Это снижает прямую пользу от полного текста статьи, хотя основная концепция остается кристально чистой и полезной. * Узкий фокус: Исследование сфокусировано на очень специфической задаче — ответах на вопросы по временным графам знаний (TKGQA). Пользователю нужно мысленно адаптировать этот подход к своим, более общим задачам (например, анализу документов, планированию или созданию контента).

Контраргументы (почему оценка могла быть еще выше): * Предложенный фреймворк PoK является фундаментальным улучшением принципа декомпозиции. Он дает пользователю не просто идею "разбей задачу на части", а конкретный инструментарий ("операторы") для этого. Это концептуальный сдвиг, который может кардинально улучшить качество промптов для любых сложных задач, а не только для тех, что связаны со временем.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с