3,583 papers
arXiv:2511.15719 83 12 нояб. 2025 г. FREE

Chain of Summaries (CoS): итеративное саммари через самопроверку вопросами

КЛЮЧЕВАЯ СУТЬ
Парадокс: короткое саммари на 170 токенов работает для Q&A точнее чем полный документ на 11,000 токенов — 0.80 vs 0.76 F1. Причина: модели страдают от «проклятия середины». Информация из середины длинного контекста игнорируется. Метод Chain of Summaries позволяет создавать плотные саммари, которые покрывают все ключевые факты документа без шума. Фишка: не одно «сократи текст», а цикл самопроверки — генерируй вопросы к оригиналу → проверяй, можно ли ответить по саммари → дополняй недостающим. Повторять 5-10 раз. Каждый цикл закрывает пробелы — саммари растёт под давлением вопросов.
Адаптировать под запрос

TL;DR

Chain of Summaries — техника создания саммари, которая итеративно улучшает краткое изложение через цикл "сгенерируй вопросы к оригиналу → проверь, можно ли ответить по саммари → дополни недостающим". Вместо одного прохода "сократи текст" — несколько циклов самопроверки. Вдохновлено диалектикой Гегеля: тезис (первое саммари) → антитезис (вопросы, обнажающие пробелы) → синтез (улучшенная версия).

Главная находка: саммари CoS работает для Q&A лучше, чем полный исходный документ — 0.80 vs 0.76 F1 при 170 токенах вместо 11,000. Причина: LLM страдают от "проклятия середины" — плохо используют информацию из середины длинного контекста. Короткое, но информационно плотное саммари убирает шум и делает ключевые факты доступнее.

Метод работает в 3 фазы за несколько запросов: (1) создать начальное саммари, (2) сгенерировать вопросы к оригиналу и проверить, отвечает ли саммари, (3) дополнить саммари информацией для неотвеченных вопросов. Повторять 5-10 раз. Ключевой инсайт: лучше 10 итераций по 1 вопросу, чем 1 итерация с 50 вопросами.


🔬

Схема метода

ШАГ 1: Начальное саммари          → краткое изложение документа
         ↓
ШАГ 2: Генерация вопросов         → 5-10 вопросов к ОРИГИНАЛУ (не к саммари)
         ↓
ШАГ 3: Проверка                   → можно ли ответить по саммари?
         ↓
ШАГ 4: Дополнение                 → добавить в саммари инфу для неотвеченных вопросов
         ↓
      [Повторить шаги 2-4: 5-10 раз]
         ↓
ФИНАЛ: Информационно плотное саммари

Каждый шаг — отдельный запрос к LLM. Полный цикл: 20-40 запросов (но токены короткие).


🚀

Пример применения

Задача: Подготовить договор аренды (15 страниц) для быстрых консультаций с Claude — чтобы потом задавать вопросы и получать точные ответы без перечитывания всего документа.

Промпт (Шаг 1 — начальное саммари):

Вот договор аренды. Создай информационно плотное саммари — все ключевые условия, сроки, суммы, обязанности сторон. Цель: по этому саммари можно будет отвечать на любые вопросы по договору.

[текст договора]

Промпт (Шаг 2 — генерация вопросов):

Вот оригинал договора. Сгенерируй 5 разнообразных вопросов, на которые важно уметь ответить по этому документу. Формат:
Q: [вопрос]
A: [короткий ответ — слово или фраза]

[текст договора]

Промпт (Шаг 3 — проверка):

Вот саммари договора. Попробуй ответить на вопросы ТОЛЬКО на основе саммари. Если ответа нет — напиши "нет в саммари".

Саммари: [текущее саммари]

Вопросы:
[список вопросов из шага 2]

Промпт (Шаг 4 — дополнение):

Улучши саммари, чтобы оно содержало информацию для ответа на эти вопросы. Сохрани всё важное из текущей версии.

Оригинал договора: [текст]
Текущее саммари: [саммари]
Вопросы без ответа: [неотвеченные вопросы]

Результат: После 3-5 циклов получится саммари на 200-400 слов, которое покрывает: стоимость, сроки, условия расторжения, штрафы, обязанности по ремонту, порядок продления. По этому саммари можно задавать вопросы и получать точные ответы — без загрузки всего договора в каждый запрос.


🧠

Почему это работает

Слабость LLM: "Проклятие середины" — модели плохо используют информацию из середины длинного контекста. При 11,000 токенах факты в середине документа часто игнорируются. Плюс стандартное саммари оптимизировано на "краткость", а не на "полезность для ответов".

Сильная сторона LLM: Модели отлично генерируют вопросы к тексту и проверяют, содержится ли ответ в фрагменте. Это более чёткая задача, чем абстрактное "выдели главное".

Как метод соединяет: Вместо субъективного "что важно" — объективный критерий: можешь ли ты ответить на вопрос? Каждая итерация находит пробел (вопрос без ответа) и закрывает его. Саммари эволюционирует под давлением конкретных информационных запросов.

Рычаги управления:

  • Количество итераций (5-10) — больше = плотнее, но diminishing returns после 10
  • Вопросов на итерацию (1-2 лучше чем 10) — постепенное улучшение работает лучше массового
  • Тип вопросов — можно направлять: "вопросы о сроках", "вопросы о деньгах" — для фокуса на нужных аспектах

📋

Шаблон промпта

📌

Шаг 1: Начальное саммари

Создай информационно плотное саммари документа. Цель: по саммари можно отвечать на вопросы без обращения к оригиналу.

Документ:
{текст_документа}
📌

Шаг 2: Генерация вопросов

Сгенерируй {количество_вопросов} разнообразных вопросов к документу. Вопросы должны покрывать важную информацию. Ответы — короткие (слово или фраза).

Формат:
Q: [вопрос]
A: [короткий ответ]

Документ:
{текст_документа}
📌

Шаг 3: Проверка

Ответь на вопросы ТОЛЬКО на основе саммари. Если ответа нет — напиши "нет в саммари".

Саммари:
{текущее_саммари}

Вопросы:
{список_вопросов}
📌

Шаг 4: Дополнение

Улучши саммари, добавив информацию для ответа на неотвеченные вопросы. Сохрани важное из текущей версии. Держи саммари коротким.

Оригинал: {текст_документа}
Текущее саммари: {саммари}
Неотвеченные вопросы: {вопросы_без_ответа}

Верни: Обновлённое саммари:

Плейсхолдеры:

  • {текст_документа} — полный текст для саммаризации
  • {количество_вопросов} — 3-5 для итерации
  • {текущее_саммари} — результат предыдущего шага
  • {список_вопросов} — Q&A из шага 2
  • {вопросы_без_ответа} — те, на которые саммари не ответило

🚀 Быстрый старт — вставь в чат:

Я хочу создать информационно плотное саммари документа методом Chain of Summaries. 

Метод: итеративно улучшать саммари через цикл "вопросы → проверка → дополнение".

Вот документ: [вставить документ]

Проведи меня через 5 итераций:
1. Создай начальное саммари
2. Сгенерируй 3 вопроса к оригиналу
3. Проверь, отвечает ли саммари
4. Дополни недостающим
5. Повтори шаги 2-4 ещё 4 раза

После каждой итерации покажи текущее саммари и какие пробелы закрыты.

LLM возьмёт документ и проведёт полный цикл — покажет эволюцию саммари от первой до финальной версии.


⚠️

Ограничения

⚠️ Много запросов: Полный цикл — 20-40 обращений к LLM. Для разовой задачи проще сделать одно хорошее саммари. CoS окупается когда саммари будет использоваться многократно.

⚠️ Фактологический контент: Метод оптимизирован под Q&A — хорошо работает для договоров, инструкций, технической документации. Хуже для нарративов и художественных текстов, где "главное" — не факты.

⚠️ Нужен оригинал: На каждой итерации требуется доступ к полному документу для генерации вопросов и проверки. Нельзя улучшать саммари "вслепую".

⚠️ TruthfulQA хуже: На датасете с нюансированными утверждениями (не чистые факты) метод показывает меньший прирост — ROUGE-L 14.77 vs 8.89, но это всё ещё +66%.


🔍

Как исследовали

Команда проверила CoS на трёх Q&A датасетах: TriviaQA (фактологические вопросы), TruthfulQA (проверка на правдивость), SQuAD (извлечение ответов из контекста). Тестировали три модели: GPT-4o-mini, Llama-3.2:3B, Qwen-2.5:7B — от коммерческой до локальных.

Главный вопрос: можно ли по саммари отвечать на вопросы лучше, чем по полному документу? Оказалось — да. На TriviaQA с GPT-4o-mini: CoS-саммари дало 0.80 F1, полный документ — 0.76. При этом саммари занимает 170 токенов vs 11,000 у оригинала. Это контринтуитивно: меньше информации → лучше результат. Причина — "проклятие середины" устраняется.

Интересная находка про гиперпараметры: 10 итераций по 1 вопросу стабильно лучше 1 итерации с 50 вопросами (0.64 vs 0.49 F1 для Llama). Постепенное улучшение работает лучше массовой правки. Также проверили синтетические vs человеческие вопросы — разницы почти нет (+0.07 vs +0.05), что делает метод применимым без готовых Q&A пар.

Попытка сжать многошаговый процесс в одну модель (fine-tuning маленького Qwen через GRPO) дала результат хуже: 0.74 vs 0.80. Итеративность — необходима, её нельзя заменить обучением.


📄

Оригинал из исследования

Промпт для генерации вопросов:

Generate {number_of_questions} diverse and specific questions in Q: format based on the content. Do not include question numbers. Each question should target important information from the text. Each answer should be concise (word or short phrase) and directly address the question.

Ensure answers are brief (a word or short phrase, not a full sentence) and factually accurate based on the text. Format should be:
Q: 
A: 

Промпт для дополнения саммари:

You are an expert text summarizer. Your task is to refine an existing summary to address specific user questions.
Rules:
- Include information that directly answers the user's questions
- Preserve relevant key points from the original summary
- Return the original summary unchanged if it already contains all necessary information
- Return the original summary if the questions are not relevant to the text
- Keep the summary short and concise
- Don't include questions in the summary.
- Every time start with: Updated Summary:

Knowledge Base Passage: {passage}
Existing Summary: {existing_summary}
Questions to Address: {antithesis_questions}
Provide an updated summary addressing the questions while maintaining the informational content of the original summary.

Контекст: Эти промпты использовались для автоматизации цикла в экспериментах. В ручном режиме можно упростить формулировки.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: CoS для подготовки базы знаний

Если работаешь с LLM над проектом и регулярно загружаешь одни и те же документы (регламенты, ТЗ, исследования) — прогони их через CoS один раз. Получишь компактные "карточки", которые занимают меньше контекста и дают лучшие ответы.

У меня есть 5 документов, которые я часто использую в работе с тобой:
1. [название] — [краткое описание]
2. ...

Для каждого создай CoS-саммари (3 итерации). Результат сохрани как "База знаний проекта X". В будущих разговорах я буду вставлять эту базу вместо полных документов.
📌

🔧 Техника: направленные вопросы для фокуса

Вместо "сгенерируй любые вопросы" — направь на нужный аспект:

Сгенерируй 5 вопросов к документу, фокусируясь на:
- Финансовые условия и штрафы
- Сроки и дедлайны
- Ответственность сторон

Это даст саммари, оптимизированное под твои типичные запросы.

📌

🔧 Техника: мини-CoS за 3 шага

Для быстрого применения без 10 итераций:

1. Создай саммари документа
2. Придумай 5 каверзных вопросов, на которые саммари может НЕ ответить
3. Проверь и дополни саммари одним проходом

[документ]

Не даёт максимального качества, но ловит основные пробелы за один запрос.


🔗

Ресурсы

Работа: "Chain of Summaries: Summarization Through Iterative Questioning"

Авторы: William Brach (Slovak Technical University), Lukas Galke (University of Southern Denmark)

Датасеты: TriviaQA, TruthfulQA, SQuAD v1.1

Связанные методы: SELF-REFINE (итеративное улучшение), SummIt (саммаризация + самооценка), диалектический метод Гегеля


📋 Дайджест исследования

Ключевая суть

Парадокс: короткое саммари на 170 токенов работает для Q&A точнее чем полный документ на 11,000 токенов — 0.80 vs 0.76 F1. Причина: модели страдают от «проклятия середины». Информация из середины длинного контекста игнорируется. Метод Chain of Summaries позволяет создавать плотные саммари, которые покрывают все ключевые факты документа без шума. Фишка: не одно «сократи текст», а цикл самопроверки — генерируй вопросы к оригиналу → проверяй, можно ли ответить по саммари → дополняй недостающим. Повторять 5-10 раз. Каждый цикл закрывает пробелы — саммари растёт под давлением вопросов.

Принцип работы

Стандартное саммари оптимизировано на краткость, а не на полезность для ответов. Вместо субъективного «выдели главное» — объективный критерий: можешь ли ответить на вопрос? Метод работает как диалектика Гегеля: тезис (первое саммари) → антитезис (вопросы обнажают пробелы) → синтез (улучшенная версия). Повторяешь до тех пор пока саммари не закроет все важные вопросы к документу. Ключевой инсайт: лучше 10 итераций по 1 вопросу, чем 1 итерация с 50 вопросами — постепенное улучшение работает эффективнее массового.

Почему работает

Модели отлично генерируют вопросы к тексту и проверяют, содержится ли ответ в фрагменте. Это более чёткая задача чем абстрактное «выдели главное». Проклятие середины: при 11,000 токенах факты в середине документа часто игнорируются. Короткое плотное саммари убирает шум и делает ключевые факты доступнее. Каждая итерация находит пробел (вопрос без ответа) и закрывает его конкретной информацией из оригинала. После 5 циклов получаешь саммари которое покрывает 80-90% важных фактов при сжатии в 50-100 раз.

Когда применять

Договоры, техническая документация, инструкции — везде где нужно потом задавать вопросы и получать точные ответы. Конкретно для работы с длинными документами (5,000+ токенов), особенно когда саммари будет использоваться многократно для Q&A. НЕ подходит для художественных текстов и нарративов — там «главное» не факты, а атмосфера и сюжет.

Мини-рецепт

1. Создай начальное саммари: Попроси модель сделать информационно плотное саммари документа — все ключевые факты, цифры, условия
2. Сгенерируй вопросы: Попроси 3-5 вопросов к оригинальному документу с короткими ответами (формат Q: вопрос / A: ответ)
3. Проверь саммари: Попытайся ответить на вопросы ТОЛЬКО по саммари — если ответа нет, пометь «нет в саммари»
4. Дополни пробелы: Попроси улучшить саммари добавив информацию для неотвеченных вопросов из оригинала
5. Повтори шаги 2-4: Делай 5-10 циклов — каждая итерация закрывает новые пробелы

Примеры

[ПЛОХО] : Сократи этот договор аренды до 1 страницы, выдели главное (Получишь субъективную выжимку — что модели показалось важным, а не то что реально нужно для ответов)
[ХОРОШО] : Вот договор аренды на 15 страниц. Проведи 5 итераций Chain of Summaries: (1) начальное саммари, (2) генерируй 3 вопроса к оригиналу, (3) проверяй можно ли ответить по саммари, (4) дополняй недостающим, (5) повтори шаги 2-4 ещё 4 раза. После каждой итерации показывай что добавилось. (Получишь плотное саммари которое покрывает все фактические аспекты — стоимость, сроки, штрафы, обязанности)
Источник: Chain of Summaries: Summarization Through Iterative Questioning
ArXiv ID: 2511.15719 | Сгенерировано: 2026-01-11 20:05

Концепты не выделены.

📖 Простыми словами

Chain of Summaries (CoS): итеративное саммари через самопроверку вопросами

arXiv: 2511.15719

Обычные нейронки делают саммари как ленивые студенты: пробежались глазами, выкинули «лишнее» и выдали сухой остаток. Проблема в том, что при сжатии текста в 10 раз модель неизбежно теряет важные куски, особенно из середины документа — это называют проклятием середины. В итоге получается текст, который вроде бы про то же самое, но при попытке уточнить детали он рассыпается. Метод Chain of Summaries меняет саму логику: вместо того чтобы просто сокращать, модель заставляют итеративно доказывать, что она ничего не упустила.

Это как если бы ты пересказывал другу сложный фильм, а он бы после каждой твоей фразы дотошно спрашивал: «А откуда у героя взялся пистолет?» или «Почему они вдруг в Париже?». Тебе приходится возвращаться к сюжету, выцеплять забытые детали и вклеивать их в свой рассказ. В итоге после пяти таких кругов допроса твой пересказ становится настолько плотным и логичным, что по нему можно писать диссертацию, не смотря само кино. Итеративное вопрошание превращает рыхлый текст в железобетонный конспект.

Технически это работает через цикл самопроверки: сначала модель пишет черновик, потом сама же генерирует вопросы к оригиналу и проверяет, можно ли найти ответы в её краткой версии. Если ответа нет — это информационная дыра, которую нужно заделать. Процесс повторяется 5–10 раз, пока саммари не станет максимально насыщенным. Вместо одного прохода «на авось» мы получаем синтез, где каждое предложение обосновано реальным фактом из исходника, а не просто красивым обобщением.

Этот подход — спасение для работы с тяжелыми документами вроде договоров на 50 страниц или технических спецификаций. Обычно, если скормить такой объем в ChatGPT и попросить «кратко суть», половина условий аренды или мелких багов просто испарится. Chain of Summaries гарантирует, что ключевые зацепки останутся на месте. Принцип универсален: его можно натравить на лонгриды, записи созвонов или научные статьи — везде, где цена потери мелкой детали слишком высока.

Короче, пора признать: стандартное саммари — это часто бесполезная выжимка, которая только создает иллюзию понимания. Если тебе нужно не просто «почитать покороче», а реально работать с информацией дальше, заставляй модель гонять текст через цикл вопросов и ответов. Информационная плотность решает всё: лучше потратить больше токенов на итерации сейчас, чем потом гадать, почему нейронка галлюцинирует на простых вопросах по документу.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с