3,583 papers
arXiv:2409.10955 95 17 сент. 2024 г. FREE

Исследование контекстной достоверности в больших языковых моделях: роли силы памяти и стиля доказательств

КЛЮЧЕВАЯ СУТЬ
Исследование показало, что разные способы подачи информации имеют разную убедительность: Плохо работает (простое повторение): Дать команду "Используй информацию X
Адаптировать под запрос

Исследование изучает, почему большие языковые модели (LLM) иногда игнорируют предоставленный им в промпте контекст и отвечают на основе своих "внутренних знаний". Было выявлено, что модель тем "упрямее", чем сильнее её внутренняя "память" о каком-либо факте.

Ключевой результат: Самый эффективный способ заставить модель следовать предоставленному контексту — это несколько раз перефразировать ключевую информацию разными словами, что работает значительно лучше, чем простое повторение или добавление второстепенных деталей.

Суть метода заключается в преодолении "внутреннего сопротивления" LLM, которое авторы называют "силой памяти" (memory strength). Если модель "твердо знает", что столица Франции — Париж, она с большой вероятностью проигнорирует ваш контекст, в котором сказано, что столица — Лион. Это происходит потому, что факт о Париже имеет высокую "силу памяти".

Чтобы побороть это сопротивление и заставить модель быть "верной контексту", нужно сделать этот контекст максимально убедительным. Исследование показало, что разные способы подачи информации имеют разную убедительность:

  • Плохо работает (простое повторение): Дать команду "Используй информацию X. Используй информацию X." почти не дает эффекта. Модель может это проигнорировать.
  • Работает средне (добавление деталей): Сказать "Используй информацию X, потому что она важна для анализа Y и связана с Z." — это лучше, но не всегда эффективно.
  • Работает отлично (перефразирование): Сказать:
    1. "Ключевое требование: используй информацию X."
    2. "Другими словами, твой ответ должен полностью базироваться на данных из X."
    3. "Убедись, что никакие сведения, кроме X, не попали в итоговый результат."

Такой подход, по сути, "атакует" внутреннюю уверенность модели с разных сторон, используя семантически эквивалентные, но по-разному сформулированные инструкции. Это значительно повышает вероятность того, что модель последует вашему указанию, а не своим "воспоминаниям".

  • Прямая применимость: Исключительно высокая. Любой пользователь может немедленно начать применять этот метод. Когда вам нужно, чтобы LLM строго следовала какому-то правилу, ограничению или факту (например, "не упоминай цены", "пиши в стиле X", "считай, что главный герой — женщина"), просто сформулируйте это правило 2-3 раза разными словами в разделе инструкций вашего промпта.

  • Концептуальная ценность: Очень высокая. Исследование дает пользователю полезную "ментальную модель": LLM — это не послушный исполнитель, а скорее "эксперт со своим мнением". Если ваша задача противоречит его "мнению" (сильной памяти), вам нужно быть более убедительным. Перефразирование — это и есть главный инструмент убеждения. Это объясняет множество случаев, когда модель кажется "упрямой".

  • Потенциал для адаптации: Метод легко адаптируется с исправления фактов на любые другие задачи.

    • Для генерации текста: Чтобы задать строгий тон, можно написать: "Пиши в формальном стиле. Избегай сленга и разговорных выражений. Текст должен быть выдержан в стилистике деловой переписки."
    • Для анализа данных: Чтобы сфокусировать модель, можно указать: "Проанализируй только финансовые показатели. Не обращай внимания на маркетинговые метрики. Твой анализ должен касаться исключительно выручки и затрат."
Ты — опытный SMM-менеджер. Твоя задача — написать короткий рекламный пост для Instagram о нашем новом фитнес-клубе "Атлант".

**Контекст:**
Наш клуб находится в спальном районе, и наша главная целевая аудитория — это новички, которые никогда не занимались спортом и боятся "качков" и сложного оборудования.

**Ключевые инструкции и ограничения (ОЧЕНЬ ВАЖНО):**

1.  **Фокус на новичках:** Весь текст должен быть направлен на людей без опыта. Подчеркни, что у нас комфортно и не страшно начинать.
2.  **Избегай профессионального сленга:** Не используй слова вроде "база", "профицит", "сушка", "пампинг". Говори простым и понятным языком.
3.  **Атмосфера поддержки, а не достижений:** Сделай акцент на дружелюбной атмосфере и поддержке тренеров, а не на рекордах и спортивных достижениях. Твоя цель — снять страх перед первым походом в зал.

**Задача:**
Напиши на основе этой информации рекламный пост (примерно 1000 символов). Добавь призыв к действию — записаться на бесплатную вводную тренировку.

Этот промпт работает, потому что он борется с "сильной памятью" LLM о том, как обычно рекламируют фитнес-клубы (успех, сила, рекорды, "стань лучшей версией себя"). Стандартный подход модели был бы неуместен для целевой аудитории новичков.

Механики из исследования применены следующим образом: * Прямая инструкция (№1): Фокус на новичках... подчеркни, что у нас комфортно. * Перефразирование через исключение (№2): Избегай профессионального сленга... — это другой способ сказать "пиши для новичков". * Перефразирование через смену акцента (№3): Акцент на дружелюбной атмосфере, а не на рекордах... — это третья формулировка той же основной идеи "мы для начинающих".

Тройное, разностороннее указание на одну и ту же суть ("мы — клуб для новичков") делает эту инструкцию доминирующей и заставляет модель отказаться от своих шаблонных знаний о фитнес-рекламе.

Проанализируй следующий отзыв клиента на наш сервис доставки еды и подготовь краткую сводку для руководителя отдела качества.

**Текст отзыва:**
"Заказ приехал на 40 минут позже, курьер даже не извинился. Сама пицца была вкусная, горячая, тут претензий нет. Но вот салат 'Цезарь' был ужасен — курица сухая, соуса почти нет. В приложении обещали скидку на следующий заказ за опоздание, но промокод так и не пришел. В общем, впечатления смешанные."

**Инструкции для сводки:**

1.  **Извлеки только негативные моменты:** В сводке должны быть отражены ИСКЛЮЧИТЕЛЬНО проблемы, с которыми столкнулся клиент.
2.  **Не упоминай позитивные аспекты:** Полностью проигнорируй информацию о том, что клиенту понравилось (например, вкус пиццы).
3.  **Сгруппируй по зонам ответственности:** Раздели все жалобы на категории: "Логистика", "Качество кухни", "Работа приложения/IT".

**Задача:**
Представь сводку в виде маркированного списка, четко разделив проблемы по указанным категориям.

Этот промпт эффективен, так как он заставляет модель отойти от её стандартного поведения при суммаризации — сбалансированного изложения всех точек зрения. "Сильная память" модели подсказывает, что хороший саммари должен включать и плюсы, и минусы.

Здесь используется та же механика перефразирования для усиления одной, но очень важной инструкции: * Прямая инструкция (№1): Извлеки только негативные моменты. * Перефразирование через исключение (№2): Не упоминай позитивные аспекты. Это та же самая команда, но сформулированная от противного, что усиливает её вес. * Перефразирование через структурирование (№3): Требование Сгруппируй по зонам ответственности неявно подкрепляет фокус на проблемах, так как именно проблемы (а не похвала) обычно являются предметом разбора для отделов качества.

Таким образом, модель получает четкий и усиленный сигнал: "Твоя задача — не сбалансированный пересказ, а извлечение проблем". Это позволяет получить на выходе не общее саммари, а целевой отчет, который и требовался пользователю.

📌

Основные критерии оценки

  • Предварительный фильтр: Исследование полностью сфокусировано на текстовых промптах и поведении LLM в RAG-сценариях (Retrieval-Augmented Generation), что напрямую релевантно для пользователей, предоставляющих моделям контекст. Фильтр пройден.
  • A. Релевантность техникам промтинга: Очень высокая. Исследование напрямую сравнивает эффективность разных стилей подачи информации (доказательств) в промпте.
  • B. Улучшение качества диалоговых ответов: Высокая. Основная цель — повысить "верность контексту" (context-faithfulness), то есть заставить модель использовать предоставленную информацию, а не свои "внутренние знания", что критически важно для точности.
  • C. Прямая практическая применимость: Очень высокая. Главный вывод можно применить немедленно, без кода и специальных инструментов, просто изменив формулировку промпта.
  • D. Концептуальная ценность: Высокая. Вводит и объясняет концепцию "силы памяти" (memory strength) LLM, что помогает понять, почему модель иногда "упрямится" и игнорирует инструкции.
  • E. Новая полезная практика (кластеры): Работа попадает сразу в несколько ключевых кластеров:
    • #1 (Техники формулирования промптов): Предлагает конкретный метод — перефразирование — для усиления влияния контекста.
    • #2 (Поведенческие закономерности LLM): Раскрывает, что LLM с большей вероятностью проигнорирует контекст, если он противоречит её "сильной памяти" (хорошо заученным фактам).
    • #6 (Контекст и память): Исследование целиком посвящено улучшению работы с контекстом.
    • #7 (Надежность и стабильность): Повышение "верности контексту" напрямую ведет к снижению галлюцинаций и повышению надежности ответов.
  • Чек-лист практичности (+15 баллов): Да, исследование дает готовые конструкции (принцип перефразирования), раскрывает неочевидные особенности поведения LLM (концепция "силы памяти" и неэффективность простого повторения) и предлагает способ улучшить точность ответов.
📌

Цифровая оценка полезности

Аргументы за высокую оценку (95/100): Исследование дает один из самых ценных и легко применимых советов для любого пользователя LLM: если вы хотите, чтобы модель гарантированно учла важную информацию или следовала строгому ограничению, сформулируйте эту информацию/ограничение несколько раз разными словами в одном и том же промпте. Этот вывод напрямую подтвержден экспериментами (Таблица 3), где перефразирование (Direct+Paraphrase) значительно снижает процент ответов из "памяти" модели (Rm) по сравнению с простым повторением или добавлением деталей. Это фундаментальный принцип "убеждения" LLM, который решает частую проблему "модель меня не слушает". Концепция "силы памяти" отлично объясняет, почему это происходит.

Контраргументы (почему не 100): * Академический фокус: Исследование оформлено в терминах RAG и "конфликта знаний", что может показаться сложным для обычного пользователя. Ему нужно самостоятельно "перевести" вывод с академического языка ("повышение восприимчивости к контрфактическим доказательствам") на практический ("как заставить бота следовать моим правилам"). * Узкий сценарий тестов: Эксперименты проводились на задачах типа "вопрос-ответ" с исправлением фактов (например, замена правильного ответа на неверный в контексте). Хотя принцип универсален, его прямая эффективность в творческих или аналитических задачах в работе не измерялась, и пользователю придется экстраполировать выводы самостоятельно.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с