3,583 papers
arXiv:2505.18688 92 1 мая 2025 г. FREE

Большие языковые модели в задаче автоматической валидации предсказаний текстовых классификаторов

КЛЮЧЕВАЯ СУТЬ
Комбинация ансамбля из нескольких LLM, использующих RAG и вероятностный подход с порогом отсечения, позволяет превзойти по качеству и скорости работу штатных аннотаторов.
Адаптировать под запрос
📌

1. Ключевые аспекты исследования:

Исследование предлагает и тестирует методы замены медленной и дорогой ручной разметки текстов на автоматическую с помощью LLM. Авторы сравнивают два подхода: стандартный, где модель пишет ответ текстом, и продвинутый, где анализируется вероятность (уверенность) сгенерированного ответа, что позволяет отсеивать неуверенные ответы. Также доказывается, что добавление в промпт релевантных документов из базы знаний (RAG) и специальная дотренировка модели на "рассуждения" значительно повышают качество.

Ключевой результат: Комбинация ансамбля из нескольких LLM, использующих RAG и вероятностный подход с порогом отсечения, позволяет превзойти по качеству и скорости работу штатных аннотаторов.

🔬

2. Объяснение всей сути метода:

Суть исследования для практика промпт-инжиниринга сводится к нескольким ключевым идеям по управлению LLM для получения точных и надежных ответов.

  1. Структурируй или проиграешь. Вместо того чтобы писать запрос сплошным текстом, разбейте его на логические блоки с четкими заголовками, например: [РОЛЬ], [ЗАДАЧА], [ВХОДНЫЕ_ДАННЫЕ], [КОНТЕКСТ], [ФОРМАТ_ОТВЕТА]. Это помогает модели лучше понять структуру задачи и следовать инструкциям.

  2. Дай модели "шпаргалку" (RAG). LLM не знает специфики вашей задачи (внутренние правила компании, детали продукта, tone of voice). Перед тем как задать основной вопрос, предоставьте ей этот контекст в специальном блоке [КОНТЕКСТ] или [СПРАВОЧНАЯ_ИНФОРМАЦИЯ]. Это резко снижает галлюцинации и повышает релевантность ответа.

  3. Заставь модель оценить свою уверенность. Это самый важный концептуальный вывод. Прямой доступ к вероятностям токенов есть только у разработчиков, но этот принцип можно симулировать. Вместо того чтобы просто просить ответ, добавьте в инструкцию следующее правило: "Если ты не уверен в ответе на 100%, не придумывай и напиши 'НЕТ ДОСТАТОЧНО ИНФОРМАЦИИ' или 'НЕ УВЕРЕН'". Это практическая адаптация "Probabilistic approach", которая заставляет модель включать механизм самопроверки и отфильтровывать менее надежные ответы.

  4. Осторожнее с рассуждениями. Исследование показало, что если сначала заставить модель "подумать шаг за шагом", а потом на основе этих мыслей выдать ответ, она становится излишне самоуверенной. Для задач, где важна именно оценка уверенности, лучше просить сразу краткий ответ, а рассуждения выносить в отдельный, необязательный блок.

📌

3. Анализ практической применимости:

*Прямая применимость:

* **Структурирование промптов:** Любой пользователь может немедленно начать использовать Markdown-заголовки или XML-теги (`<task>`, `</task>`) для разметки своих запросов в ChatGPT, Claude и других чат-ботах.
* **Ручной RAG:** Пользователь может легко скопировать и вставить релевантный текст (статью, отрывок из документа, описание продукта) в промпт перед основным запросом, симулируя работу RAG-системы.
  • Концептуальная ценность:

    • "Уверенность" как метрика: Исследование дает пользователю понимание, что ответ LLM — это не знание, а вероятностное предсказание. Это меняет подход к формулировке промптов: появляется задача не просто получить ответ, а получить надежный ответ.
    • Компромисс "Качество vs Количество": Пользователь начинает понимать, что лучше получить 5 точных ответов и 2 отказа, чем 7 ответов, из которых 3 — неверные. Это помогает правильно ставить цели при работе с LLM.
  • Потенциал для адаптации:

    • Принцип "Probabilistic approach" адаптируется для любой задачи. Вместо проверки вероятности токена, пользователь просит модель добавить в ответ шкалу уверенности от 1 до 5 или использовать специальное слово-маркер (UNCERTAIN, HIGH_CONFIDENCE) при определённых условиях. Это переносит сложный технический метод в плоскость простого текстового промптинга.

🚀

4. Практически пример применения:

# РОЛЬ

Ты — опытный SMM-менеджер, отвечающий за поддержку позитивного имиджа бренда "КосмоЧай". Твой стиль общения — дружелюбный, но экспертный.

# КОНТЕКСТНАЯ ИНФОРМАЦИЯ (Шпаргалка)

- **Правила возврата:** Клиент может вернуть чай в течение 14 дней, если упаковка не вскрыта. Деньги возвращаются в течение 5 рабочих дней после получения товара на склад.
- **Состав "Лунного Сбора":** Ромашка, мелисса, лаванда, лепестки василька. Кофеина нет.
- **Текущая акция:** "Купи 3 пачки любого чая, получи 4-ю в подарок". Действует до конца месяца.

# ВХОДНЫЕ ДАННЫЕ

Проанализируй следующий комментарий от пользователя:
"Вчера купила ваш 'Лунный Сбор', думала, поможет расслабиться, а в итоге всю ночь не спала! Что у вас там за состав вообще? Можно ли его вернуть, пачку я уже открыла."

# ЗАДАЧА

Определи основную проблему клиента и классифицируй её по одной из следующих категорий:
1. **Вопрос по составу** (клиент интересуется ингредиентами).
2. **Жалоба на эффект** (продукт не оказал ожидаемого действия или вызвал побочный эффект).
3. **Вопрос по возврату** (клиент хочет вернуть товар).
4. **Вопрос по акции** (клиент интересуется специальными предложениями).

# ФОРМАТ ОТВЕТА

Выдай ответ строго в формате JSON:
{
 "category": "название_категории",
 "confidence": "уровень_уверенности"
}

# ВАЖНЫЕ ИНСТРУКЦИИ

1. Внимательно проанализируй текст и выбери ТОЛЬКО ОДНУ наиболее подходящую категорию.
2. Оцени свою уверенность в выборе категории по шкале: "High", "Medium", "Low".
3. **Если в комментарии затронуто несколько тем, выбери ту, которая является первопричиной недовольства. Если определить первопричину невозможно, установи confidence в "Low".**
🧠

5. Почему это работает:

Этот промпт напрямую использует выводы исследования:

* Структурирование: Четкие блоки # РОЛЬ, # КОНТЕКСТ, # ЗАДАЧА и т.д. помогают модели разделить задачу на подзадачи и не упустить детали.
* Механика RAG: Блок # КОНТЕКСТНАЯ ИНФОРМАЦИЯ — это ручная реализация RAG. Он дает модели специфические знания о продукте и правилах, которых нет в ее общей базе знаний, что позволяет ей точнее понять контекст жалобы.
* Адаптация "Probabilistic approach": Вместо анализа вероятностей токенов, мы просим модель саму оценить свою уверенность ("confidence": "уровень_уверенности"). Инструкция №3 — это прямое применение идеи "порога отсечения": мы даем модели правило, что делать в случае неоднозначности, заставляя ее снизить уверенность, что является сигналом для человека обратить на этот случай особое внимание.


📌

6. Другой пример практического применения

# РОЛЬ

Ты — ассистент руководителя, твоя задача — быстро и точно извлекать ключевую информацию из деловой переписки.

# ИСХОДНЫЙ ТЕКСТ (Письмо)

"Коллеги, добрый день.
Напоминаю, что встреча по проекту 'Альфа' переносится на пятницу, 14:00, в переговорке 'Юпитер'. Прошу подготовить отчет по бюджету до конца среды. Иван, уточни, пожалуйста, у подрядчиков по срокам поставки оборудования. Мария, с тебя презентация по итогам Q2. Кстати, насчет корпоратива — решили, что он будет 28-го числа в боулинге.
С уважением,
Сергей Петров"

# ЗАДАЧА

Извлеки из текста все поручения и события и представь их в виде структурированного списка.

# ФОРМАТ ОТВЕТА

Выведи результат в виде markdown-таблицы с колонками: "Тип", "Задача/Событие", "Ответственный", "Срок".

# ВАЖНЫЕ ИНСТРУКЦИИ

1. **Тип** может быть "Поручение" или "Событие".
2. Если ответственный или срок в тексте не указан явно, используй значение "Не указан".
3. **Если ты не уверен на 100% в интерпретации какой-либо части текста, НЕ ДОДУМЫВАЙ. Вместо этого добавь в конец ответа отдельный блок [ЗОНЫ НЕУВЕРЕННОСТИ] и перечисли в нем все сомнительные моменты.**
🧠

7. Объяснение механизма почему этот пример работает.

  • Структура и роль: Как и в первом примере, четкая структура задает рамки работы модели.
  • Извлечение, а не генерация: Задача сфокусирована на точном извлечении данных (information extraction), что минимизирует творчество и галлюцинации.
  • Адаптация "Probabilistic approach" и надежности (Кластер 7): Инструкция №3 — это ключевой элемент, основанный на выводах исследования. Она создает "зону безопасности". Вместо того чтобы модель пыталась угадать ответственного за корпоратив (хотя его нет), она вынесет этот факт в блок [ЗОНЫ НЕУВЕРЕННОСТИ]. Это практическая реализация принципа "лучше никакого ответа, чем неверный", что критически важно в деловых задачах. Это симулирует отсев ответов с низкой вероятностью, о котором говорится в "Probabilistic approach".

📌

Основные критерии оценки

  • A. Релевантность техникам промптинга: Да. Исследование подробно описывает структуру промптов с использованием блоков ([USER], [REASONING], [ANSWER]), применение few-shot примеров, и роль RAG для добавления контекста.
  • B. Улучшение качества диалоговых ответов: Да. Основная цель работы — повысить точность LLM в задаче классификации, что напрямую транслируется в более релевантные и точные ответы в чат-сценариях.
  • C. Прямая практическая применимость: Очень высокая. Методы структурирования промпта и ручного добавления контекста (симуляция RAG) могут быть немедленно использованы любым пользователем в любом чат-боте.
  • D. Концептуальная ценность: Исключительно высокая. Работа раскрывает фундаментальные концепции:
    • Разницу между генерацией развернутого ответа ("Text approach") и получением токена с высокой вероятностью ("Prob approach").
    • Неочевидный, но критически важный вывод: предварительное "рассуждение вслух" делает модель самоуверенной и снижает эффективность оценки по вероятности токена.
    • Концепцию "покрытия" (coverage) — возможность пожертвовать количеством ответов ради их качества, отсекая неуверенные предположения модели.
  • E. Новая полезная практика (кластеризация): Работа охватывает несколько кластеров:
    • Кластер 1 (Техники): Использование Few-shot примеров.
    • Кластер 3 (Оптимизация структуры): Четкое структурирование промптов с помощью маркеров-блоков.
    • Кластер 4 (Управление генерацией): Весь "Probabilistic approach" с пороговыми значениями является ключевым примером управления генерацией.
    • Кластер 6 (Контекст и память): Глубокое исследование RAG для предоставления модели актуальной информации.
    • Кластер 7 (Надежность): Методика отсечения ответов по порогу уверенности — прямой способ снижения галлюцинаций и повышения стабильности.
  • Чек-лист практичности: Да, даёт готовые конструкции (блоки [TASK], [RETRIEVED]), объясняет, где размещать важную информацию (в RAG-блоке), показывает, как структурировать сложные запросы, и раскрывает неочевидные особенности поведения LLM. Это добавляет +15 баллов к базовой оценке.
📌

2 Цифровая оценка полезности

Аргументы в пользу оценки 92: Исследование является золотой жилой для продвинутого пользователя и промт-инженера. Оно не просто говорит "делайте так", а объясняет почему это работает на уровне механик модели. Ключевые выводы — о пользе RAG, структурировании промптов и, самое главное, о неочевидной связи между рассуждением и уверенностью модели — напрямую применимы и могут кардинально улучшить качество взаимодействия с LLM. Это одно из тех исследований, которые формируют "интуицию" промт-инженера.

Контраргументы (почему оценка не выше/ниже):

* Почему не 100? Часть методов, таких как SFT (файн-тюнинг) с LoRA и прямой доступ к вероятностям токенов ("Prob approach" в чистом виде), недоступны обычному пользователю в веб-интерфейсах вроде ChatGPT. Эти техники требуют программного доступа через API и технических навыков.
* Почему не ниже 80? Несмотря на техническую сложность некоторых методов, концептуальные выводы из них бесценны. Идея "попросить модель оценить свою уверенность" может быть адаптирована для обычного пользователя (см. примеры ниже). Практики структурирования промпта и добавления контекста (RAG) применимы всеми и немедленно.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с