3,583 papers
arXiv:2501.08208 78 14 янв. 2025 г. FREE

ASTRID -- Автоматизированная и масштабируемая TRIaD для оценки клинических систем ответов на вопросы на основе RAG

КЛЮЧЕВАЯ СУТЬ
Умение отказать (Refusal Accuracy): Если в вашем документе нет ответа на вопрос, модель должна честно сказать: "В предоставленном тексте нет информации по этому вопросу"
Адаптировать под запрос

Исследование предлагает автоматизированную систему ASTRID для оценки качества ответов чат-ботов, работающих с базами знаний (RAG-системы), особенно в критически важных областях, таких как медицина. Авторы вводят три ключевые метрики: Conversational Faithfulness (насколько ответ соответствует источнику, даже если он "разговорный"), Refusal Accuracy (умение модели корректно отказаться от ответа, если информации нет) и Context Relevance (насколько релевантный фрагмент текста был извлечен для ответа).

Ключевой результат: предложенный набор метрик (триада ASTRID) позволяет автоматически и с высокой точностью оценивать надежность ответов LLM, и эта оценка хорошо совпадает с мнением экспертов-людей (врачей).

Суть исследования в том, чтобы научить пользователей думать как "оценщик" качества ответов LLM, которая работает с вашими документами (эта технология называется RAG). Когда вы задаете вопрос по загруженному файлу, LLM сначала ищет в нем релевантный кусок текста, а потом на основе этого куска генерирует ответ. Исследование показывает три главные точки отказа этой системы и предлагает, как их измерять.

Для пользователя это означает, что для получения хорошего ответа нужно контролировать три вещи: 1. Верность источнику (Conversational Faithfulness): Модель должна генерировать ответ строго на основе найденного текста, а не додумывать из своих общих знаний. При этом она может быть вежливой и вести диалог ("Да, конечно, в вашем документе говорится, что..."). Ваша задача — заставить ее придерживаться фактов из документа. 2. Умение отказать (Refusal Accuracy): Если в вашем документе нет ответа на вопрос, модель должна честно сказать: "В предоставленном тексте нет информации по этому вопросу". Она не должна пытаться угадать или придумать ответ. Ваша задача — научить ее отказываться. 3. Релевантность контекста (Context Relevance): Этот шаг скрыт от пользователя, но важно понимать, что модель сначала находит фрагмент в документе, и только потом отвечает. Если она нашла не тот фрагмент, ответ будет неверным, даже если он "верен" этому неправильному фрагменту.

Методика для пользователя: встраивать в свои промпты явные инструкции, которые заставляют модель следовать этим трем правилам. Вы не оцениваете модель постфактум, а даете ей эти правила как часть задания.

  • Прямая применимость: Низкая. Пользователь не может запустить систему ASTRID для оценки своего чата. Однако он может взять саму логику ASTRID и встроить ее в свой промпт в виде прямых указаний и ограничений для LLM.

  • Концептуальная ценность: Очень высокая. Исследование дает пользователю "рентгеновское зрение", чтобы видеть, почему его запросы к документам проваливаются. Вместо того чтобы думать "LLM глупая", пользователь начинает задавать правильные вопросы: "Она не нашла нужный фрагмент?", "Она придумала ответ, потому что я не разрешил ей сказать 'я не знаю'?", "Она смешала факты из документа со своими общими знаниями?".

  • Потенциал для адаптации: Огромный. Принципы оценки из ASTRID легко трансформируются в превентивные инструкции внутри промпта. Механизм адаптации прост: вместо того чтобы проверять ответ на верность контексту, вы приказываете модели генерировать ответ, верный контексту. Вместо того чтобы проверять, смогла ли модель отказаться, вы даете ей явное разрешение и инструкцию для отказа.

Представим, что вы менеджер по продукту и вам нужно составить краткую выжимку для команды на основе большого отчета об исследовании рынка.

Ты — опытный продукт-менеджер, который анализирует отчеты и готовит четкие выводы для команды разработки.

Твоя задача — проанализировать предоставленный ниже текст отчета и подготовить краткую сводку для команды.

**# Контекст (текст отчета):**

... (здесь вы вставляете полный текст вашего отчета, например, 5-10 страниц) ...
Наши исследования показывают, что пользователи в возрасте 25-35 лет ценят в продукте прежде всего скорость работы и интуитивный интерфейс. Сегмент 45-55 лет, напротив, больше озабочен безопасностью данных и готов мириться с более сложным интерфейсом ради защиты информации. Опросы показали низкий интерес к геймификации во всех возрастных группах. Основным конкурентом является компания "InnovateCorp", их слабое место — отсутствие мобильного приложения.
... (и так далее) ...


**# Задание:**
Подготовь сводку из 5 ключевых тезисов для команды разработки. Сфокусируйся на том, что может повлиять на разработку новых функций.

**# Критические правила твоего ответа:**

**1. Правило Верности Контексту (Faithfulness):**
   - Все без исключения тезисы в твоем ответе должны быть основаны **ТОЛЬКО** на информации из раздела ``.
   - Не добавляй никаких предположений, общих знаний или информации из других источников.
   - Если ты цитируешь или перефразируешь, делай это максимально близко к смыслу оригинала.

**2. Правило Отказа (Refusal):**
   - Если в тексте отчета нет прямой информации для ответа на какой-либо аспект задания (например, о бюджете на маркетинг), ты **ОБЯЗАН** явно указать: "В предоставленном отчете информация о [тема] отсутствует".
   - Не пытайся угадать или сгенерировать ответ на основе косвенных данных. Лучше честный отказ, чем неточная информация.

**# Формат вывода:**
- Маркированный список из 5 пунктов.

Этот промпт работает за счет превращения оценочных метрик из исследования в исполняемые инструкции для LLM.

  • Правило Верности Контексту напрямую реализует принцип Conversational Faithfulness. Мы приказываем модели не "галлюцинировать" и не смешивать предоставленный текст со своей общей базой знаний. Это резко повышает фактическую точность ответа.
  • Правило Отказа реализует принцип Refusal Accuracy. Мы даем модели явное разрешение и даже обязываем ее сообщать о нехватке информации. Это предотвращает ситуацию, когда LLM, стремясь быть "полезной", выдумывает факты, чтобы заполнить пробелы.
  • Четкая структура с тегами <context>, разделами # Задание и # Критические правила помогает модели лучше понять иерархию инструкций и отделить исходные данные от задачи и ограничений.

Сценарий: сотрудник хочет быстро узнать правила компании по поводу удаленной работы из большого внутреннего документа "Политика Компании".

Ты — ассистент отдела кадров. Твоя задача — точно и беспристрастно отвечать на вопросы сотрудников на основе официальных документов.

**# Контекст (документ):**

... (здесь вставлен полный текст политики компании) ...
Статья 4. Режим работы.
4.1. Сотрудники могут работать в гибридном формате (3 дня в офисе, 2 дня удаленно) по согласованию с руководителем.
4.2. Полностью удаленная работа возможна только для должностей, утвержденных в Приложении 2, и требует отдельного заявления.
4.3. Работа из-за пределов страны постоянного проживания запрещена без специального разрешения от руководства уровня C-level.
... (и так далее) ...


**# Вопрос сотрудника:**
"Могу ли я следующую зиму работать 3 месяца из другой страны, если мой руководитель не против?"

**# Критические правила твоего ответа:**

**1. Правило Верности Контексту (Faithfulness):**
   - Твой ответ должен быть на 100% основан на тексте из раздела ``.
   - Не давай советов, личных мнений или информации, не подтвержденной документом.

**2. Правило Отказа (Refusal):**
   - Если в документе нет точного ответа на вопрос сотрудника, четко укажи: "В предоставленной политике нет точной информации по вашему вопросу. Рекомендуется обратиться в HR напрямую".

**# Формат вывода:**
Прямой и ясный ответ на вопрос сотрудника со ссылкой на пункты политики, если это возможно.

Этот промпт эффективен, потому что он симулирует идеального RAG-агента, как его видят авторы исследования ASTRID, но делает это проактивно.

  • Механизм Верности (Faithfulness): Инструкция "на 100% основан на тексте" заставляет модель игнорировать любые свои знания о "типичных" HR-политиках и фокусироваться только на предоставленном документе. Это предотвращает опасные обобщения и гарантирует, что ответ будет релевантен именно этой компании.
  • Механизм Отказа (Refusal): В данном сценарии вопрос сотрудника может быть не полностью покрыт документом (например, про "3 месяца"). Правило отказа заставляет модель не додумывать, а направить сотрудника по правильному пути (обратиться в HR), что является безопасным и правильным действием в реальной жизни.

Таким образом, пользователь, вооруженный знанием из статьи ASTRID, может конструировать промпты, которые минимизируют риски и повышают надежность ответов LLM при работе с конкретными документами.

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Низкая. Исследование не предлагает прямых техник для формулирования пользовательских промптов, а фокусируется на промптах для оценки ответов LLM.
  • B. Улучшение качества диалоговых ответов: Высокая (косвенная). Понимание принципов, описанных в исследовании, позволяет пользователю формулировать промпты, которые предотвращают типичные ошибки RAG-систем (например, кастомных GPT).
  • C. Прямая практическая применимость: Низкая. Методы требуют адаптации и не могут быть использованы "как есть" обычным пользователем в чате. Это не готовый паттерн, а концепция для осмысления.
  • D. Концептуальная ценность: Очень высокая. Исследование блестяще раскрывает "внутреннюю кухню" и типичные проблемы RAG-систем (поиск по базе знаний + генерация ответа). Оно дает пользователю ментальную модель для понимания, почему его кастомный бот или LLM с загруженным файлом отвечает странно.
  • E. Новая полезная практика (кластеризация): Работа попадает в три ключевых кластера:
    • Кластер 2 (Поведенческие закономерности LLM): Объясняет, почему RAG-системы могут "выдумывать" факты, даже имея доступ к источнику, или почему они не могут корректно отказаться от ответа.
    • Кластер 6 (Контекст и память): Вся работа посвящена улучшению взаимодействия с контекстом в RAG-системах.
    • Кластер 7 (Надежность и стабильность): Основная цель исследования — предложить метрики для повышения надежности и снижения "галлюцинаций" в ответах, основанных на документах.
  • Чек-лист практичности (+15 баллов): Исследование получает бонусные баллы, так как оно:
    • Раскрывает неочевидные особенности поведения LLM: Да, оно детально объясняет, как и почему RAG-системы ошибаются.
    • Предлагает способы улучшить consistency/точность ответов: Да, хоть и косвенно. Поняв метрики оценки, пользователь может встроить их как требования в свой промпт.
📌

Цифровая оценка полезности

Аргументы в пользу оценки (78/100): Оценка высокая, потому что исследование дает фундаментальное понимание того, как работают и ломаются современные LLM-агенты и кастомные GPT, использующие Retrieval-Augmented Generation (RAG). Для любого пользователя, который загружает в чат-бот свои документы (PDF, DOCX) и пытается получить по ним ответы, эта работа — ключ к пониманию, почему модель: 1. Игнорирует документ и отвечает из своих общих знаний. 2. Придумывает детали, которых нет в тексте. 3. Не может признать, что ответа в документе нет.

Хотя статья не дает готовых промптов, она вооружает пользователя концептуальной базой, позволяющей создавать гораздо более надежные и предсказуемые инструкции для LLM.

Контраргументы (почему оценка могла быть ниже): * Высокий порог входа: Статья написана сложным академическим языком и сфокусирована на методологии оценки, а не на практических советах для пользователей. Чтобы извлечь пользу, нужно проделать мыслительную работу по "переводу" метрик оценки в инструкции для промпта. * Отсутствие прямых инструкций: Пользователь не найдет здесь разделов "Как писать промпт" или готовых шаблонов. Вся польза — косвенная.

Контраргументы (почему оценка могла быть выше): * Фундаментальная важность: Для "продвинутого" пользователя, создающего собственных GPT-агентов или сложные промпты для работы с документами, эти знания бесценны. Понимание триады ASTRID (особенно Conversational Faithfulness и Refusal Accuracy) — это прямой путь к созданию более надежных систем. Это почти обязательное чтение для тех, кто хочет выйти за рамки простых запросов.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с