3,583 papers
arXiv:2509.10697 88 12 сент. 2025 г. FREE

Обзор методов извлечения и структурирования дополненной генерации с большими языковыми моделями

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерирует галлюцинации не потому, что «глупа», а потому что получает контекст в виде неструктурированной «стены текста» — модель теряется в хаосе информации и начинает додумывать. RAS позволяет радикально повысить точность ответов на задачах, требующих работы с внешними данными (отчеты, анализ документов, написание на основе фактов). Суть метода: перед передачей информации в промпт — разбей её на атомарные блоки (списки, пары ключ-значение, XML-теги). Модель перестает угадывать факты и начинает извлекать их из структурыгаллюцинации падают, точность взлетает.
Адаптировать под запрос

Исследование анализирует подход RAS (Retrieval And Structuring Augmented Generation), который борется с главными недостатками LLM — галлюцинациями и устаревшими знаниями. Суть подхода в том, чтобы перед генерацией ответа не просто найти релевантную информацию (Retrieval), но и предварительно ее структурировать (Structuring) в виде схем, списков или графов знаний. Это позволяет LLM генерировать более точные, логичные и фактически верные ответы, опираясь на подготовленные и организованные данные.

Ключевой результат: Предоставление LLM структурированного контекста вместо "сырого" текста значительно повышает качество и надежность генерируемых ответов.

Для обычного пользователя метод RAS можно свести к простому и мощному трехшаговому алгоритму "Найди, Структурируй, Спроси". Вместо того чтобы полагаться на внутренние, потенциально устаревшие знания LLM, вы становитесь активным участником процесса, который поставляет модели качественное "топливо" для ответа.

  1. Retrieval (Поиск/Извлечение): На первом этапе вы самостоятельно находите необходимую информацию для решения вашей задачи. Это может быть статья из интернета, ваш внутренний документ, техническая документация или отзывы клиентов. Вы выступаете в роли "поисковой системы".

  2. Structuring (Структурирование): Это ключевой шаг, который отличает продвинутый подход от простого копирования. Вы не просто вставляете в промпт стену текста. Вы обрабатываете найденную информацию:

    • Выделяете ключевые факты, цифры, имена, даты.
    • Организуете их в легко читаемый формат: списки, заголовки, таблицы, пары "ключ-значение".
    • Убираете "воду" и оставляете только самую суть, релевантную вашему запросу. Вы, по сути, создаете для LLM краткую и понятную "шпаргалку".
  3. Generation (Генерация): На последнем этапе вы передаете эту структурированную "шпаргалку" в промпт вместе с четкой инструкцией. Важно указать модели, что она должна основывать свой ответ преимущественно или исключительно на предоставленных вами данных.

Этот метод превращает LLM из "всезнайки" в мощный инструмент обработки и синтеза информации, который работает под вашим контролем и на основе предоставленных вами фактов.

  • Прямая применимость: Высокая. Любой пользователь может вручную выполнить цикл "Найди -> Структурируй -> Спроси" в любом чат-боте. Например, перед написанием поста о новом продукте, пользователь может найти его характеристики, составить из них маркированный список и передать его LLM с задачей написать текст. Это не требует никаких специальных инструментов, кроме умения пользоваться поиском и форматировать текст.

  • Концептуальная ценность: Огромная. Исследование дает пользователю понимание, что LLM — это не магический оракул, а мощный обработчик текста. Качество результата напрямую зависит от качества входных данных. Концепция "Structuring" объясняет, почему хорошо организованный промпт с разделителями, заголовками и списками работает лучше, чем сплошной текст — это снижает когнитивную нагрузку на модель и помогает ей лучше сфокусироваться на важных деталях.

  • Потенциал для адаптации: Максимальный. Вместо сложных графов знаний, которые обсуждаются в статье, пользователь может использовать простые и доступные инструменты структурирования:

    • Markdown: Заголовки (#), списки (*, -), выделение (**жирным**).
    • XML/HTML-теги: <fact>, </fact>, <summary>, </summary> для разметки блоков информации.
    • Простые пары "Ключ: Значение": Автор: Иван Иванов, Дата публикации: 20.05.2024. Принцип остается тем же: превратить хаотичный текст в организованную структуру.

Представим, что менеджеру по маркетингу нужно написать анонс для внутренней рассылки о предстоящем вебинаре.

Ты — опытный копирайтер. Твоя задача — написать короткий, но емкий анонс вебинара для внутренней email-рассылки.

**Важно:** Основывайся СТРОГО на приведенной ниже структурированной информации. Не добавляй фактов, которых нет в данных.

### СТРУКТУРИРОВАННЫЕ ДАННЫЕ О ВЕБИНАРЕ ###

*   **Название вебинара:** "Эффективные продажи в B2B: Новые стратегии 2024"
*   **Спикер:** Анна Новикова
*   **Должность спикера:** Руководитель отдела развития
*   **Ключевые темы для обсуждения:**
    1.  Работа с "холодными" лидами через LinkedIn.
    2.  Техника "ценностного предложения" для крупных клиентов.
    3.  Автоматизация воронки продаж с помощью CRM.
*   **Целевая аудитория:** Менеджеры по продажам, руководители отделов продаж.
*   **Дата и время:** 25 октября 2024, 15:00 (МСК)
*   **Формат:** Онлайн, через Zoom.
*   **Призыв к действию (CTA):** "Зарегистрируйтесь по ссылке, чтобы получить календарь-приглашение".

### ЗАДАНИЕ ###

Напиши текст анонса. Стиль — деловой, но энергичный. Объем — не более 3 абзацев. Обязательно включи в текст название, имя спикера, ключевые темы, дату/время и призыв к действию.

Этот промпт является прямой реализацией метода RAS:

  1. Retrieval (Поиск): Вся необходимая информация о вебинаре была заранее собрана (в данном случае, она дана как условие).
  2. Structuring (Структурирование): Вместо того чтобы писать "Анна Новикова проведет вебинар про продажи...", информация подана в виде четких пар "ключ-значение" и маркированного списка. Заголовки ### и маркеры * создают ясную иерархию. Модели не нужно "выискивать" факты в сплошном тексте — она видит их как отдельные, атомарные единицы данных (Название вебинара:, Спикер:).
  3. Generation (Генерация): Задание четко сформулировано после блока данных. Инструкция Основывайся СТРОГО на приведенной ниже структурированной информации является критически важной — она "заземляет" модель, заставляя ее работать в режиме синтезатора информации, а не выдумщика, что предотвращает галлюцинации.

Задача: Составить краткий отчет о встрече для руководителя, который на ней не присутствовал.

Ты — мой ассистент. Проанализируй мои заметки со встречи и подготовь краткую сводку (summary) для руководителя.

**Контекст:** Руководитель ценит краткость и структуру. Ему нужны только ключевые решения и ответственные.

### СТРУКТУРИРОВАННЫЕ ЗАМЕТКИ СО ВСТРЕЧИ ###


    
        Обсуждение запуска проекта "Альфа"
        15.09.2024
        Иван (продукт), Мария (маркетинг), Петр (разработка)
    
    
        
            Иван представил финальную концепцию. Все согласились.
        
        
            Мария подняла вопрос о нехватке бюджета на рекламу. Сказала, что нужно еще 200 тыс.
        
        
            Петр сообщил, что команда разработки сможет начать работу не раньше 1 октября из-за загрузки на другом проекте.
        
    
    
        
            Подготовить детальное обоснование на доп. бюджет до 18.09.
        
        
            Сформировать команду для проекта "Альфа" и подготовить технический план к 25.09.
        
        
            Следующая встреча для синхронизации — 26.09.
        
    


### ЗАДАНИЕ ###

Напиши краткую сводку встречи в формате email для руководителя.
Структура отчета:
1.  **Тема встречи и дата.**
2.  **Ключевые принятые решения (списком).**
3.  **Ответственные и сроки по каждому решению.**

Этот пример иллюстрирует те же принципы RAS, но с использованием XML-подобной разметки для еще более строгой структуры:

  1. Retrieval: "Сырые" заметки со встречи выступают в роли извлеченной информации.
  2. Structuring: Заметки обернуты в теги <meeting_notes>, <decisions>, <decision>, которые семантически размечают информацию. Атрибут responsible явно указывает на ответственного. Это еще более продвинутый способ структурирования, чем простые списки. Модель легко "понимает", что текст внутри тега <decision> — это решение, а значение атрибута responsible — это ответственный за него.
  3. Generation: Задание просит сгенерировать отчет определенной структуры, что упрощает работу для LLM. Модель не тратит ресурсы на придумывание формата, а фокусируется на извлечении данных из тегов и их компоновке в заданный шаблон. Это практически исключает ошибки и "творческие домыслы", обеспечивая высокую точность и релевантность итогового отчета.
📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Да, исследование объясняет концептуальную основу RAG (Retrieval-Augmented Generation) и его продвинутой версии RAS (Retrieval And Structuring). Это напрямую связано с практикой предоставления LLM внешнего контекста в промпте.
  • B. Улучшение качества диалоговых ответов: Да, основная цель описываемых методов — борьба с галлюцинациями и устаревшими знаниями, что напрямую ведет к повышению точности, достоверности и релевантности ответов.
  • C. Прямая практическая применимость: Да, хотя исследование описывает сложные автоматизированные системы, обычный пользователь может вручную симулировать этот подход: найти информацию (Retrieval), структурировать ее в промпте (Structuring) и затем дать задание (Generation). Это фундаментальная техника продвинутого промптинга.
  • D. Концептуальная ценность: Очень высокая. Исследование дает пользователю "ментальную модель" для работы со сложными задачами. Оно объясняет, почему LLM ошибается и как помочь ей, предоставив качественный контекст. Раскрывает идею, что не просто наличие контекста, а его структура имеет решающее значение.
  • E. Новая полезная практика (кластеризация): Работа попадает в несколько ключевых кластеров:

    • Кластер 6 (Контекст и память): Это ядро исследования. Оно полностью посвящено методам работы с внешним контекстом для расширения "памяти" модели.
    • Кластер 7 (Надежность и стабильность): Главная цель RAS — повысить надежность и фактическую точность ответов, снижая галлюцинации.
    • Кластер 3 (Оптимизация структуры промптов): Ключевая идея "Structuring" в RAS напрямую говорит о важности форматирования и структурирования информации, подаваемой в промпте.
    • Кластер 5 (Извлечение и структурирование): Описываются методы, которые пользователь может применять для предварительной обработки информации перед включением в промпт.
  • Чек-лист практичности (+15 баллов): Да, исследование объясняет, как структурировать запросы, раскрывает неочевидную особенность (структурированный контекст лучше неструктурированного) и предлагает способы улучшить точность. Бонусные баллы применены.

📌

Цифровая оценка полезности

Исследование получает высокую оценку, так как оно раскрывает для пользователя фундаментальный принцип повышения качества ответов LLM — предоставление внешнего, заранее подготовленного контекста. Это переход от роли "спрашивающего" к роли "постановщика задачи с данными".

Аргументы за высокую оценку (почему 88): * Фундаментальная концепция: Объясняет самую суть "продвинутого промптинга" — не просто задавать вопросы, а предоставлять модели качественные данные для работы. Это меняет подход пользователя к решению сложных задач. * Прямое влияние на результат: Пользователь, понявший принцип RAG/RAS, сможет получать на порядок более точные и релевантные ответы в задачах, требующих фактических или свежих данных. * Универсальность: Принцип "Найди -> Структурируй -> Спроси" применим к любой LLM (ChatGPT, Claude, Gemini) и для широчайшего круга задач: от написания отчетов до планирования путешествий.

Контраргументы (почему не 95+): * Академичность: Это обзорная научная статья, а не практическое руководство. Она описывает сложные автоматизированные системы. Пользователю нужно самостоятельно провести аналогию и адаптировать идею для ручного применения в чате. * Отсутствие готовых "рецептов": Статья не дает конкретных формулировок промптов. Она дает методологию и концепцию, которую пользователь должен осмыслить и применить сам.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с