3,583 papers
arXiv:2508.19282 93 24 авг. 2025 г. FREE

CORE: Lossless Compression for Дополненный поискомLLMvia Обучение с подкреплением

КЛЮЧЕВАЯ СУТЬ
короткая, но умная выжимка позволяет основной LLM отвечать на вопросы точнее, чем при анализе полного исходного текста.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование решает проблему, когда большие языковые модели (LLM) плохо справляются с длинными текстами, поданными в качестве контекста (RAG): они "теряются" в информации и дают неточные ответы. Авторы предлагают использовать маленькую, специально обученную модель-"компрессор", которая создает из длинных документов очень короткую и емкую выжимку, содержащую только факты для ответа на конкретный вопрос.

Ключевой результат: короткая, но умная выжимка позволяет основной LLM отвечать на вопросы точнее, чем при анализе полного исходного текста.


🔬

Объяснение всей сути метода:

Суть метода для практического применения сводится к двухэтапному подходу, который любой пользователь может воспроизвести вручную в чате с LLM. Вместо того чтобы подавать один огромный промпт с кучей текста и вопросом, вы разбиваете задачу на две части, имитируя систему "Компрессор -> Основная Модель".

Шаг 1: "Компрессор" (Промпт на сжатие и извлечение)

На этом этапе вы просите LLM выступить в роли "компрессора". Вы даете ей весь исходный объем текста (статью, отчет, лог переписки) и ваш финальный вопрос. Задача LLM на этом шаге — не отвечать на вопрос, а создать из всего текста короткую, концентрированную выжимку, которая содержит только ту информацию, которая необходима для ответа.

Ключевая инструкция для этого промпта, вдохновленная исследованием: * Целеориентированность: "Создай краткую сводку, которая поможет ответить на вопрос: [Ваш вопрос]". * Фильтрация шума: "Включи в сводку только релевантные факты, цифры и имена. Игнорируй всю остальную информацию". * Обработка отсутствия информации: "Если в тексте нет информации для ответа на вопрос, напиши 'Информация не найдена'". Это критически важно для предотвращения галлюцинаций.

Шаг 2: "Ответчик" (Промпт на финальный ответ)

На этом этапе вы создаете новый, чистый запрос к LLM. Вы даете ей короткую выжимку, полученную на Шаге 1, и снова задаете свой вопрос.

Пример инструкции: * "Основываясь строго на предоставленном ниже тексте, дай четкий ответ на вопрос". * Контекст: [Вставляете сюда выжимку из Шага 1] * Вопрос: [Ваш вопрос]

Этот двухэтапный процесс заставляет модель сначала отфильтровать шум и сфокусироваться на главном, а затем, уже на основе "чистых" данных, дать точный ответ. Это имитирует то, как метод CORE обучает компрессор с оглядкой на конечную цель, что приводит к росту точности.


📌

Анализ практической применимости:

  • Прямая применимость: Пользователь может напрямую применять двухэтапный паттерн "сначала сожми, потом ответь". Это не требует никаких специальных инструментов, кроме окна чата с LLM. Шаблоны промптов для "компрессора" можно брать из статьи (рис. 3) и адаптировать под свои задачи.

  • Концептуальная ценность: Огромна. Исследование наглядно доказывает несколько ключевых идей:

    1. "Больше контекста" не равно "лучше ответ". Длинный контекст может быть вреден, так как модель теряет фокус (эффект "lost in the middle").
    2. Качество контекста важнее количества. Короткий, но релевантный и очищенный от шума контекст — залог точного ответа.
    3. Декомпозиция — сила. Сложную задачу "найди ответ в горе текста" лучше разбить на две простые: "извлеки релевантное" и "сформулируй ответ из извлеченного".
  • Потенциал для адаптации: Метод легко адаптируется для любых задач, связанных с анализом больших текстов: юридический анализ договоров, разбор научных статей, суммаризация бизнес-отчетов, анализ отзывов клиентов. Механизм адаптации прост: в промпте для "компрессора" вы просто меняете исходный текст и целевой вопрос. Этот паттерн является основой для создания более сложных LLM-агентов.


🚀

Практически пример применения:

Представим, что вы маркетолог и вам прислали длинный отчет по результатам рекламной кампании (10 страниц). Вам нужно быстро узнать эффективность кампании в социальных сетях для отчета руководителю.

Шаг 1: Промпт-"Компрессор"

Ты — ассистент-аналитик. Твоя задача — проанализировать предоставленный отчет и извлечь из него ключевую информацию для ответа на конкретный вопрос.

**Вопрос:**
"Каковы были ключевые показатели эффективности (KPI) и рентабельность инвестиций (ROI) рекламной кампании в социальных сетях (Instagram, Facebook)?"

**Инструкции:**
1.  Прочитай весь отчет ниже.
2.  Создай очень короткую, концентрированную сводку (не более 5-6 предложений), которая содержит **ТОЛЬКО** цифры и выводы, относящиеся к эффективности кампании в Instagram и Facebook.
3.  Укажи конкретные значения KPI (охват, клики, CTR, стоимость за клик) и ROI.
4.  Если в отчете нет точных данных по ROI для соцсетей, так и напиши.
5.  **Важно:** Если в отчете вообще нет информации по кампаниям в соцсетях, выведи только фразу: "Информация по соцсетям отсутствует".

**Текст отчета для анализа:**
[Сюда вставляется полный текст 10-страничного отчета]

Шаг 2: Промпт-"Ответчик" (после получения ответа на Шаг 1)

Предположим, на Шаге 1 модель выдала: "Кампания в соцсетях (Instagram, Facebook) достигла охвата 1.2 млн пользователей. Общее число кликов - 85,000 при среднем CTR 7%. Стоимость за клик составила $0.5. Прямой ROI для соцсетей в отчете не рассчитан, но указано, что с этих каналов пришло 1200 лидов."

Теперь вы можете использовать эту выжимку для финального ответа.

Основываясь строго на тексте ниже, подготовь краткий пункт для отчета руководителю.

**Контекст:**
"Кампания в соцсетях (Instagram, Facebook) достигла охвата 1.2 млн пользователей. Общее число кликов - 85,000 при среднем CTR 7%. Стоимость за клик составила $0.5. Прямой ROI для соцсетей в отчете не рассчитан, но указано, что с этих каналов пришло 1200 лидов."

**Задача:**
Сформулируй 2-3 предложения о результатах кампании в соцсетях.
🧠

Почему это работает:

Этот промпт работает, потому что он имитирует "целеориентированное сжатие", описанное в исследовании CORE.

  • Фильтрация шума: Первый промпт заставляет LLM проигнорировать все разделы отчета про SEO, email-маркетинг, организационные вопросы и т.д. Он фокусирует внимание модели только на крошечном фрагменте данных, связанных с соцсетями.
  • Снижение когнитивной нагрузки: Вместо того чтобы держать в "памяти" все 10 страниц, на втором шаге модель работает с маленьким, чистым и релевантным фрагментом текста. Это резко снижает вероятность ошибки или "потери" факта.
  • Целевая оптимизация: "Компрессор" создает выжимку не "вообще", а для ответа на конкретный вопрос. Это гарантирует, что в итоговой сводке будут именно те данные, которые нужны, что и является ключевой идеей метода CORE.
  • Борьба с галлюцинациями: Инструкция "Если информации нет, скажи об этом" предотвращает выдумывание моделью данных, которых не было в отчете, повышая достоверность.

📌

Другой пример практического применения

Сфера: HR. Задача: быстро оценить кандидата по длинному резюме и сопроводительному письму на конкретную вакансию.

Шаг 1: Промпт-"Компрессор"

Ты — опытный HR-рекрутер. Твоя задача — быстро оценить релевантность кандидата под конкретную вакансию, извлекши самую важную информацию из его документов.

**Требования вакансии "Senior Python Developer":**
- Опыт с Django/Flask более 5 лет.
- Опыт работы с PostgreSQL.
- Опыт развертывания приложений с помощью Docker и Kubernetes.
- Английский язык на уровне Upper-Intermediate.

**Инструкции:**
1.  Проанализируй резюме и сопроводительное письмо кандидата.
2.  Создай краткую сводку в формате bullet-points, где по каждому из 4-х требований вакансии будет указано, соответствует ли кандидат.
3.  Приведи конкретные факты из резюме (названия компаний, длительность работы, проекты).
4.  **Важно:** Если по какому-то из пунктов в документах нет информации, напиши напротив него "Информация отсутствует".

**Документы кандидата:**
[Сюда вставляется текст резюме и сопроводительного письма]
🧠

Объяснение механизма почему этот пример работает.

Этот пример работает по тем же принципам, что и предыдущий, но с акцентом на структурирование и сопоставление.

  • Структурированное извлечение: Промпт не просто просит сделать "выжимку", а дает четкую структуру (bullet-points по требованиям вакансии). Это заставляет модель не просто суммировать, а классифицировать информацию из текста кандидата по заданным "корзинам".
  • Снижение предвзятости: Вместо общего впечатления от резюме ("вроде подходит"), модель вынуждена искать конкретные доказательства по каждому ключевому требованию. Это делает оценку более объективной и быстрой.
  • Имитация RL-награды: Конечная "награда" для рекрутера — это быстрый и точный мэтчинг кандидата с вакансией. Промпт-"компрессор" напрямую оптимизирован под эту задачу: он создает сводку, которая максимально полезна для принятия решения "проводить ли собеседование?". Это полностью соответствует духу исследования CORE, где компрессор обучается для максимизации производительности на конечной задаче.
📌

Оценка полезности: 93

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, хотя и не напрямую. Исследование предлагает не конкретную фразу, а целую стратегию работы с контекстом (RAG), которую можно эмулировать с помощью промптов.
  • B. Улучшение качества диалоговых ответов: Да, это основная цель исследования. Метод позволяет получать более точные и фактически верные ответы при работе с большими объемами информации.
  • C. Прямая практическая применимость: Высокая, но требует адаптации. Пользователь не может обучить свою модель-компрессор, но может симулировать этот процесс, используя двухэтапный промптинг: сначала промпт для сжатия контекста, затем промпт для ответа на вопрос.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще иллюстрирует проблему "потерянности в середине" (lost in the middle) и доказывает, что умное сжатие контекста не просто экономит токены, а повышает качество ответа. Это фундаментальный инсайт для любого, кто работает с LLM и большими текстами.
  • E. Новая полезная практика: Работа попадает сразу в несколько кластеров:
    • Кластер 6 (Контекст и память): Это ядро исследования — стратегия работы с длинным контекстом.
    • Кластер 5 (Извлечение и структурирование): Метод по сути является продвинутым способом извлечения релевантной информации.
    • Кластер 7 (Надежность и стабильность): Цель метода — повысить фактическую точность и снизить "галлюцинации" за счет предоставления чистого, релевантного контекста.
  • Чек-лист практичности (+15 баллов): Да, работа дает идеи для готовых конструкций, показывает, как структурировать сложные запросы (разбивая их на два шага), раскрывает неочевидные особенности поведения LLM (длинный контекст вредит) и предлагает эффективный метод "умной" суммаризации для повышения точности.
📌

Цифровая оценка полезности

Оценка 93 обусловлена огромной концептуальной и адаптируемой практической ценностью. Это исследование дает пользователю не просто "рыбу", а "удочку" — понимание того, почему нельзя бездумно "скармливать" модели гигабайты текста и как правильно готовить для нее информацию.

Аргументы за оценку: * Фундаментальный инсайт: Идея о том, что короткий, но релевантный контекст работает лучше, чем полный, но "шумный" — это прорыв в понимании для обычного пользователя. Это меняет подход к работе с документами. * Практический паттерн: Исследование порождает очень мощный и универсальный паттерн "Компрессор -> Ответчик", который можно реализовать в любом чат-боте двумя последовательными запросами. * Прямые заимствования: Шаблон промпта для компрессора (рис. 3 в статье) можно адаптировать и использовать напрямую. Особенно ценна инструкция "Если релевантной информации нет, выведи пустую строку" — это отличный способ борьбы с галлюцинациями.

Контраргументы (почему оценка могла быть ниже): * Непрямое применение: Основной метод (CORE) требует обучения модели с помощью Reinforcement Learning, что абсолютно недоступно обычному пользователю. Вся польза заключается в ручной "симуляции" этого процесса, что требует больше усилий, чем одноклеточный промпт. * Требует двух шагов: Это не техника, которую можно вставить в один промпт. Это двухэтапный воркфлоу, что может показаться сложным для начинающих пользователей.

Тем не менее, глубина понимания, которую дает это исследование, и мощь адаптируемого паттерна перевешивают сложность реализации, оправдывая очень высокую оценку.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с