3,583 papers
arXiv:2504.11420 88 1 апр. 2025 г. FREE

Укрепляющее композиционное извлечение извлечение пошагово для составления информативных контекстов

КЛЮЧЕВАЯ СУТЬ
Последовательный и осознанный подбор разнообразных примеров для контекста работает значительно лучше, чем простой поиск наиболее похожих примеров.
Адаптировать под запрос
📌

1. Ключевые аспекты исследования:

Это исследование показывает, что для решения сложных задач LLM нужно предоставлять в промпте не просто похожие примеры, а наборразнообразныхпримеров, которые вместе, как детали конструктора, покрывают все аспекты или "под-структуры" желаемого ответа. Вместо того чтобы подбирать несколько однотипных примеров, авторы предлагают пошагово выбирать каждый следующий пример так, чтобы он дополнял предыдущие, а не дублировал их.

Ключевой результат: Последовательный и осознанный подбор разнообразных примеров для контекста работает значительно лучше, чем простой поиск наиболее похожих примеров.

🔬

2. Объяснение всей сути метода:

Суть метода, который мы можем перенять как пользователи, — это"Композиционный Few-Shot Промптинг". Представьте, что вам нужно научить стажера выполнять сложную задачу, например, готовить еженедельный отчет.

  • Плохой подход (стандартный ретривал): Вы даете ему три примера готовых отчетов за прошлые недели. Они все хорошие, но очень похожи друг на друга. Стажер видит конечный результат, но не понимает, как он собирается из частей.
  • Хороший подход (Композиционный ретривал из исследования): Вы подходите к обучению как к сборке конструктора.
    1. Декомпозиция: Вы разбиваете задачу на части: А) Собрать ключевые метрики; Б) Сформулировать выводы; В) Составить список задач на следующую неделю.
    2. Подбор примеров-компонентов: Вы даете стажеру не три готовых отчета, а три разных документа:
      • Пример 1: Показывает, как идеально извлекать и форматировать только метрики.
      • Пример 2: Показывает, как на основе данных писать только четкие выводы.
      • Пример 3: Показывает, как правильно формулировать только список задач.

В итоге стажер (или LLM) получает не просто образцы, а набор инструкций и навыков для каждой части своей работы. Он учится не копировать, а комбинировать эти навыки для создания нового, правильного результата. Этот подход особенно важен, когда ваша задача требует сочетания нескольких разных действий.

📌

3. Анализ практической применимости:

*Прямая применимость:Пользователь может напрямую применять этот принцип при написании few-shot промптов. Вместо того чтобы искать 2-3 примера, максимально похожих на конечную цель, пользователь должен:

1. Разбить свою задачу на логические подзадачи или составные элементы.
2. Найти или придумать по одному короткому, ясному примеру для **каждого** элемента.
3. Включить этот набор разнообразных примеров в свой промпт.
  • Концептуальная ценность: Исследование дает ключевую интуицию: LLM — это не просто имитатор, это композиционный генератор. Он лучше работает, когда ему показывают не цельные образцы, а "строительные блоки" и правила их сочетания. Это меняет подход к промптингу от "покажи, что я хочу" к "научи, как это сделать, показав все нужные навыки по отдельности".

  • Потенциал для адаптации: Метод легко адаптируется для любой сложной задачи, которую можно декомпозировать. Например, для генерации email, кода, маркетингового текста, юридического документа. Механизм адаптации прост: проанализируй желаемый результат → выдели в нем уникальные структурные части (приветствие, основная часть, призыв к действию, подпись) → найди по одному идеальному примеру для каждой части → собери из них "обучающий набор" для промпта.


🚀

4. Практически пример применения:

Представим, что вы SMM-менеджер и хотите, чтобы LLM генерировала для вас посты для соцсетей в едином стиле: с интригующим вопросом в начале, списком из трех пунктов и эмоциональным призывом к действию в конце.

Ты — опытный SMM-копирайтер для бренда косметики "Сияние". Твоя задача — создавать вовлекающие посты.
Проанализируй следующие примеры, чтобы понять структуру моих постов. Каждый пример демонстрирует отдельный важный компонент.

<ПримерыКомпонентов>

### Пример 1: Демонстрация интригующего вопроса

**Текст:**
"Вы когда-нибудь задумывались, почему ваша кожа тускнеет к вечеру, даже если утром все было идеально? 🤫"

### Пример 2: Демонстрация списка из трех пунктов с эмодзи

**Текст:**
"Вот три секрета вечной молодости:
✨ Ежедневное увлажнение.
🥑 Сбалансированное питание.
😴 Полноценный сон не менее 8 часов."

### Пример 3: Демонстрация эмоционального призыва к действию

**Текст:**
"Не ждите завтрашнего дня, чтобы начать заботиться о себе. Подарите своей коже любовь, которую она заслуживает, уже сегодня! ❤️"

ПримерыКомпонентов

<Задача>
Используя изученные компоненты, создай новый пост на тему "Польза витамина C для кожи".
Структура поста должна быть такой же:
1. Интригующий вопрос в начале.
2. Список из трех ключевых преимуществ.
3. Эмоциональный призыв к действию в конце.
Задача

🧠

5. Почему это работает:

Этот промпт эффективен, потому что он напрямую реализует идею композиционного обучения.

  • Декомпозиция навыков: Вместо того чтобы показать три готовых, но однотипных поста, мы разбили задачу на три "микро-навыка": 1) задать вопрос, 2) составить список, 3) сделать призыв к действию.
  • Целевое обучение: Каждый пример в <ПримерыКомпонентов> сфокусирован на одном конкретном навыке. LLM не нужно угадывать, какая часть примера важна — мы явно показываем ему "строительные блоки".
  • Снижение избыточности: Мы не тратим токены контекста на повторение одной и той же информации. Каждый пример несет новую, уникальную структурную ценность. Модель получает более концентрированный и полезный обучающий сигнал для генерации нового контента по заданному шаблону.

📌

6. Другой пример практического применения

Задача: научить LLM извлекать из отзыва клиента структурированную информацию: упоминание продукта, оценку (позитивная/негативная) и конкретное предложение по улучшению.

Ты — ассистент по анализу клиентских отзывов. Твоя задача — извлекать из текста структурированную информацию.
Для этого изучи примеры ниже. Каждый пример показывает, как извлекать один тип данных.

<ПримерыИзвлечения>

### Пример 1: Как находить название продукта

**Исходный текст:** "Вчера купил ваш новый блендер 'Турбо-Микс 5000', он просто ужасен."
**Извлечено:** {"продукт": "Турбо-Микс 5000"}

### Пример 2: Как определять тональность отзыва

**Исходный текст:** "Очень довольна сервисом, все привезли вовремя, но само устройство работает медленно."
**Извлечено:** {"тональность": "Негативная"}

### Пример 3: Как находить конкретное предложение

**Исходный текст:** "Классные наушники, но было бы здорово, если бы вы добавили в комплект чехол для переноски."
**Извлечено:** {"предложение": "добавить в комплект чехол для переноски"}

ПримерыИзвлечения

<Задача>
Проанализируй следующий отзыв и извлеки из него данные по той же схеме. Выведи результат в формате JSON.

**Отзыв для анализа:**
"Ваш умный чайник 'Аква-Смарт' — это просто находка! Кипятит воду мгновенно. Единственное, приложение для телефона иногда отключается, это нужно исправить."

**Результат:**

🧠

7. Объяснение механизма почему этот пример работает.

Этот промпт работает за счет той же композиционной методики, но примененной к задаче извлечения данных (information extraction).

  • Разделение навыков извлечения: Задача "извлечь всё" разбита на три подзадачи: "извлечь продукт", "извлечь тональность", "извлечь предложение".
  • Фокусировка на паттернах: Каждый пример учит модель конкретному паттерну.
    • Пример 1 учит находить имя собственное в кавычках.
    • Пример 2 учит анализировать смешанные сигналы ("довольна, но...") и делать вывод о главной эмоции.
    • Пример 3 учит находить конструкцию "было бы здорово, если бы..." как маркер предложения.
  • Комбинация для новой задачи: Получив новый отзыв, LLM уже обучена трем разным, но взаимодополняющим навыкам. Она может применить их вместе: найти продукт "Аква-Смарт", определить общую тональность как позитивную (несмотря на критику приложения) и выделить конкретное предложение ("исправить отключение приложения"). Это гораздо надежнее, чем показать один большой пример, где все три элемента извлечены сразу.

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да. Исследование напрямую касается техники Few-Shot-промтинга (предоставления примеров в контексте) и раскрывает, какие примеры работают лучше всего.
  • B. Улучшение качества диалоговых ответов: Да. Основная цель работы — улучшение точности генерации, что напрямую влияет на качество ответов.
  • C. Прямая практическая применимость: Да, но не через код, а через применение принципа. Пользователь не сможет запустить их модель-ретривер, но он может вручную применить ключевую идею "композиционного подбора" примеров для своих промптов, что не требует никаких спец-инструментов.
  • D. Концептуальная ценность: Очень высокая. Работа дает глубокое понимание того, как LLM использует примеры в контексте. Она объясняет, почему набор просто "похожих" примеров часто проигрывает набору "разнообразных и дополняющих" друг друга примеров.
  • E. Новая полезная практика (кластеризация):
    • Кластер 1 (Техники формулирования): Прямое попадание. Улучшает понимание и применение Few-Shot Learning.
    • Кластер 2 (Поведенческие закономерности): Прямое попадание. Раскрывает, что LLM лучше усваивает задачу, когда примеры в контексте покрывают разные аспекты (структуры) и не являются избыточными.
    • Кластер 6 (Контекст и память): Прямое попадание. Показывает, как эффективно формировать контекст из примеров для решения сложных задач.
  • Чек-лист практичности (+15 баллов):

    • Дает готовые фразы/конструкции для промптов? (Нет)
    • Объясняет, где в промпте размещать важную информацию? (Нет)
    • Показывает, как структурировать сложные запросы? (Да, через подбор примеров, демонстрирующих разные части решения)
    • Раскрывает неочевидные особенности поведения LLM? (Да, важность разнообразия примеров над их схожестью)
    • Раскрывает эффективные метода суммаризации текста (Нет)
    • Предлагает способы улучшить consistency/точность ответов? (Да, это основная цель исследования)

    Исследование дает четкие выводы, которые можно сразу учесть при построении промпта (правило "не менее 75 баллов" выполняется). Добавляем бонусные 15 баллов к базовой высокой оценке.

📌

2 Цифровая оценка полезности

Аргументы в пользу оценки 88: Исследование раскрывает фундаментальный и крайне полезный принцип для продвинутого промптинга: качество few-shot промпта зависит не от общей "похожести" примеров на задачу, а от того, насколько полно и разнообразно эти примеры покрывают все составные части (подзадачи) конечного результата. Это мощная концептуальная идея, которая дает пользователю новый инструмент для создания сложных промптов. Она напрямую применима вручную: пользователь может сам анализировать свою задачу, декомпозировать ее и подбирать примеры, демонстрирующие решение каждой подзадачи. Оценка не 90+ только потому, что это требует от пользователя аналитических усилий, а не просто копирования готовой фразы.

Контраргументы (почему оценка могла быть выше или ниже):

* Почему не 95? Работа не дает готовых "магических фраз" вроде "Думай шаг за шагом". Она предлагает методологию, применение которой требует от пользователя вдумчивого анализа своей задачи и ручного подбора примеров. Это не техника, которую можно применить за 5 секунд.
* Почему не 70? Несмотря на то что пользователь не может напрямую использовать разработанный в исследовании инструмент (ретривер на основе RL), ключевая идея — "композиционный подбор" — настолько универсальна и полезна, что ее ценность для понимания и практики промптинга огромна. Она объясняет, почему иногда few-shot промпты не работают, и дает четкий путь к их улучшению.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с