3,583 papers
arXiv:2505.16293 92 1 мая 2025 г. FREE

Улучшение рассуждений больших языковых моделей с помощью динамического написания заметок для сложных вопросов и ответов.

КЛЮЧЕВАЯ СУТЬ
Вместо подачи всей информации в один большой промпт, разбивай сложную задачу на шаги и заставляй LLM создавать КРАТКИЕ ЗАМЕТКИ после каждого этапа. Эти сжатые выжимки используй как основу для следующего шага. Принцип: НЕ ПЕРЕГРУЖАЙ КОНТЕКСТ – модель лучше работает с порционной подачей информации, чем с информационной свалкой.
Адаптировать под запрос
📌

1. Ключевые аспекты исследования:

Исследование решает проблему "перегрузки контекста" и "информационного шума" в LLM при решении сложных вопросов, требующих информации из нескольких источников. Вместо того чтобы подавать модели все найденные документы целиком, авторы предлагают на каждом шаге использовать вспомогательную LLM для создания кратких, релевантных "заметок" (Notes Writing) из найденного материала. Эти сжатые заметки затем используются основной моделью для следующего шага рассуждений, что резко повышает точность и эффективность.

Ключевой результат: Итеративное создание кратких заметок из найденной информации позволяет LLM решать сложные задачи значительно лучше, чем простая подача всего объема данных в контекст.

🔬

2. Объяснение всей сути метода:

Суть метода "Notes Writing" (Ведение заметок) для обычного пользователя заключается в переходе от стратегии "один большой промпт для сложной задачи" к стратегии "серия маленьких, сфокусированных промптов с подведением итогов".

Представьте, что вы просите LLM спланировать сложное путешествие по трем странам. Если вы напишете все требования в одном промпте (найти билеты, отели, составить маршруты, учесть бюджет, найти веганские рестораны), модель, скорее всего, что-то упустит, запутается или "загаллюцинирует", потому что объем информации и количество ограничений слишком велики. Она "тонет" в контексте.

Метод "Notes Writing" предлагает действовать как детектив, который собирает улики по одной и заносит их в блокнот:

  1. Разбейте большую задачу на маленькие подзадачи. (Например: 1. Найти авиабилеты. 2. Подобрать отели. 3. Составить маршрут на первые 3 дня.)
  2. Решите первую подзадачу. Дайте модели только первый, самый простой запрос.
  3. Заставьте модель "написать заметку". В конце ответа попросите ее сделать краткую выжимку полученного результата в удобном формате. Например: "А теперь сведи ключевую информацию по билетам в краткую сводку в тегах ".
  4. Используйте "заметку" для следующего шага. Скопируйте эту сводку и вставьте ее в следующий промпт как контекст для решения второй подзадачи. "Вот информация по моим билетам: <summary>...<summary>. Теперь, основываясь на этих датах и городах, подбери отели."

Этот итеративный процесс защищает модель от информационного шума, сохраняет в контексте только самое важное и позволяет ей рассуждать гораздо точнее и последовательнее.

📌

3. Анализ практической применимости:

*Прямая применимость:Пользователь может напрямую и немедленно применить этот метод, вручную симулируя его в диалоге с любой LLM. Для этого нужно просто изменить свой стиль взаимодействия:

1. Разбивать сложный запрос на логические шаги.
2. После ответа на каждый шаг давать команду: `"Отлично, а теперь сделай краткую выжимку (summary) ключевых фактов из твоего ответа"`.
3. Использовать эту выжимку как основу для следующего промпта.
Это превращает хаотичный диалог в структурированный исследовательский процесс.
  • Концептуальная ценность: Исследование дает пользователю две важнейшие концептуальные идеи:

    1. Контекстное окно LLM — это не идеальная память. Большой объем информации в нем создает "шум", который мешает модели сфокусироваться на главном.
    2. LLM лучше работает как "обработчик", а не как "хранитель" информации. Эффективнее подавать ей небольшие порции данных для обработки, чем заставлять ее удерживать в "памяти" огромный массив текста.
  • Потенциал для адаптации: Метод легко адаптируется под любую задачу, требующую многошагового анализа. Механизм адаптации прост: вместо автоматического вызова второй LLM (как в статье), пользователь сам выступает в роли "менеджера проекта", который ставит LLM последовательные задачи и контролирует промежуточные результаты (те самые "заметки"), обеспечивая чистоту и релевантность контекста на каждом этапе.


🚀

4. Практически пример применения:

Ты — опытный маркетолог-аналитик. Моя цель — запустить небольшой онлайн-магазин по продаже ароматических свечей ручной работы.
Мы будем работать пошагово. Твоя задача — на каждом шаге предоставлять анализ, а в конце **ОБЯЗАТЕЛЬНО** делать краткую выжимку ключевых выводов в тегах ``.

**Шаг 1: Анализ целевой аудитории.**

Проанализируй и опиши 3-4 ключевых сегмента целевой аудитории для продукта "экологичные ароматические свечи ручной работы премиум-сегмента". Для каждого сегмента укажи:
- Демографические признаки (возраст, пол, примерный доход).
- Психографические признаки (ценности, интересы, образ жизни).
- Основные мотивы для покупки (для себя, в подарок, для создания атмосферы и т.д.).

После полного анализа, предоставь краткие выводы в тегах ``.

🧠

5. Почему это работает:

Этот промпт работает, потому что он напрямую реализует принципы, описанные в исследовании, адаптируя их для ручного использования:

  1. Декомпозиция (Decomposition): Вместо одного гигантского промпта "Разработай мне маркетинговую стратегию", мы разбиваем задачу на управляемые части. Первый шаг — только анализ ЦА.
  2. Фокусировка и снижение шума (Noise Reduction): Модель концентрируется только на одной задаче, что повышает глубину и качество анализа. Ей не нужно одновременно думать о конкурентах, ценах и каналах продвижения.
  3. Создание "Заметки" (Notes Writing): Инструкция ОБЯЗАТЕЛЬНО делать краткую выжимку ... в тегах <notes> заставляет LLM сгенерировать тот самый артефакт — сжатый, структурированный итог. Эти <notes> — аналог вывода вспомогательной LLM из статьи.
  4. Управление контекстом (Context Management): Получив выводы в тегах <notes>, пользователь сможет скопировать их в следующий промпт ("Вот наша ЦА: <notes>...</notes>. Теперь на основе этого проанализируй конкурентов"), обеспечивая идеальную преемственность и не перегружая модель лишними деталями из предыдущего ответа.

📌

6. Другой пример практического применения

Ты — опытный консультант по здоровому питанию. Я хочу улучшить свой рацион, но не знаю, с чего начать.
Мы будем действовать пошагово, чтобы не запутаться. После каждого шага, пожалуйста, формируй **КРАТКИЙ ПЛАН ДЕЙСТВИЙ** на основе твоего ответа в тегах ``.

**Шаг 1: Анализ текущих привычек и постановка цели.**

Моя главная цель — получать больше энергии в течение дня и сбросить 2-3 кг за пару месяцев.
Сейчас я часто пропускаю завтрак, пью много кофе, на обед ем что-то быстрое (сэндвичи, бизнес-ланч), а на ужин плотно наедаюсь. Сладкое ем 3-4 раза в неделю.

Проанализируй мои текущие привычки и предложи 3-4 первоочередных, самых простых изменения, которые я могу внедрить без сильного стресса. Объясни, почему именно эти изменения важны.

В конце ответа сформулируй четкий и краткий план действий на первую неделю в тегах ``.

🧠

7. Объяснение механизма почему этот пример работает.

Этот пример эффективно использует методологию "Notes Writing" в сфере личного консультирования, где пошаговый подход особенно важен.

  • Итеративный подход: Задача "улучшить рацион" огромна и абстрактна. Промпт разбивает ее на конкретный первый шаг: "анализ текущего состояния и предложение первых изменений". Это снижает когнитивную нагрузку и на пользователя, и на LLM.
  • Создание артефакта ("Заметки"): Требование сформулируй четкий и краткий план действий ... в тегах <plan> является прямой реализацией "Notes Writing". Вместо длинных рассуждений модель создает концентрированную, действенную выжимку. Этот <plan> — это и есть та самая "заметка".
  • Управляемый диалог: Получив <plan>, пользователь может на следующем шаге задать более конкретный вопрос: "Вот мой план на неделю: <plan>...</plan>. Помоги составить список покупок для его реализации". Это предотвращает "сваливание" диалога в общие советы и делает его максимально практичным, что является главной целью исследования — повысить качество и точность ответа на каждом шаге.

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да. Раскрывает принцип итеративной обработки информации и ее сжатия на каждом шаге, что является продвинутой техникой промтинга.
  • B. Улучшение качества диалоговых ответов: Да. Исследование показывает значительный прирост в качестве ответов (до 15.6 процентных пунктов) на сложных многошаговых вопросах (multi-hop QA).
  • C. Прямая практическая применимость: Да, но с адаптацией. Пользователь не может запустить "вторую LLM для заметок", но может вручную симулировать этот процесс, заставляя основную LLM делать краткие выжимки на каждом шаге, что чрезвычайно полезно.
  • D. Концептуальная ценность: Очень высокая. Исследование наглядно объясняет, почему длинный контекст не всегда эффективен ("иголка в стоге сена"), и почему LLM "отвлекается" на нерелевантную информацию. Это дает пользователю ключевую ментальную модель: "LLM нужно кормить информацией порционно и в 'переваренном' виде".
  • E. Новая полезная практика (кластеризация): Работа попадает сразу в несколько ключевых кластеров:
    • 1. Техники формулирования промптов: Описывает метод декомпозиции и итеративного решения.
    • 2. Поведенческие закономерности LLM: Объясняет проблему "перегрузки контекста" и "отвлечения" модели.
    • 6. Контекст и память: Предлагает практическую стратегию управления контекстом для решения сложных задач.
    • 7. Надежность и стабильность: Метод напрямую нацелен на повышение точности и снижение ошибок в рассуждениях.
  • Чек-лист практичности (+15 баллов): Да, работа показывает, как структурировать сложные запросы, раскрывает неочевидные особенности поведения LLM (проблема "иголки в стоге сена" в длинном контексте) и предлагает способ улучшить точность.
📌

2 Цифровая оценка полезности

Оценка 92 дана за то, что исследование предлагает не просто "трюк", а целую методологию для решения сложных, многоступенчатых задач, которую пользователь может адаптировать для ручного применения. Это фундаментально меняет подход от "одного гигантского промпта" к управляемому пошаговому диалогу.

Аргументы "за" (почему оценка высокая):

* Фундаментальный инсайт: Ключевая идея — "сначала найди, потом сожми, потом используй" — чрезвычайно мощная. Она объясняет многие неудачи пользователей при работе со сложными запросами и дает рабочий инструмент для их преодоления.
* Универсальность: Принцип применим к любой LLM (ChatGPT, Claude, etc.) и к широкому спектру задач: от планирования путешествий и анализа рынков до написания научных обзоров.
* Высокая концептуальная ценность: Дает пользователю понимание, что LLM — это не бездонный "мозг", а инструмент, который легко перегрузить и отвлечь. Это знание само по себе улучшает качество промптов.

Контраргументы (почему оценка не 100):

* Требует адаптации и дисциплины: Метод в статье автоматизирован (вторая LLM пишет заметки). Для обычного пользователя это требует ручной работы: сознательно разбивать задачу на шаги, запрашивать промежуточные итоги и подавать их в следующем промпте. Это не "готовая фраза", а рабочий процесс.
* Фокус на RAG: Исследование глубоко погружено в контекст RAG (Retrieval-Augmented Generation), что может показаться слишком техническим для новичка. Однако основную идею "управления контекстом" легко извлечь и применить без понимания всех тонкостей RAG.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с