TL;DR
Когда просишь LLM проанализировать текст и объяснить выводы, модель может найти верный ответ — но обосновать его словами, которых в тексте нет. Это не баг конкретной модели, это системная особенность: модели сходятся в том, что сказать, но расходятся в том, почему. В исследовании разные модели давали похожие оценки (совпадение ~87%), но цитировали почти разные фрагменты текста (совпадение 7–25%).
Решение — структурированный промпт с обязательной привязкой к источнику: модель сначала разбирает текст по шагам, потом делает вывод, потом обязательно цитирует конкретные слова из текста, которые привели к этому выводу. Такой формат «запирает» рассуждение в границах документа — и снижает долю придуманных доказательств с ~20% до менее 7%.
Промпт строится на четырёх принципах: роль эксперта, пошаговый разбор, структурированный вывод, цитаты из источника как обязательный шаг. Последнее — ключевое. Без явного требования процитировать модель «объясняет» свободно, и эти объяснения нередко не имеют отношения к конкретному тексту.
Схема метода
Всё выполняется в одном промпте:
ШАГ 1: Роль → модель принимает образ конкретного эксперта
ШАГ 2: Разбор по критериям → последовательно проверяет текст на маркеры
ШАГ 3: Вывод → формулирует оценку по заданной шкале
ШАГ 4: Доказательства → обязательно цитирует конкретные слова из текста
↓
Финал: структурированный JSON-ответ (или другой формат)
Пример применения
Задача: HR-директор получил письмо от ключевого сотрудника с просьбой об увольнении. Нужно понять — это реальное решение или крик о помощи, есть ли шанс удержать человека.
Промпт:
Ты — опытный HR-психолог с 15 годами практики в удержании сотрудников.
Проанализируй текст заявления об уходе по следующим шагам:
Шаг 1. Эмоциональные маркеры
- Найди признаки усталости, обиды, разочарования
- Найди признаки твёрдого решения vs импульса
Шаг 2. Лингвистические маркеры
- Отметь слова неопределённости ("возможно", "наверное", "не знаю")
- Отметь финальность формулировок ("решил", "ухожу", "больше не буду")
- Найди упоминания конкретных причин vs абстрактных жалоб
Шаг 3. Оценка ситуации
- Насколько решение финальное (шкала 1-10, где 10 = окончательно)
- Есть ли шанс на разговор
Шаг 4. Доказательства
- Процитируй конкретные фразы из текста, которые привели к каждому выводу
Текст заявления:
{текст_заявления}
Результат: Модель покажет разбор по каждому шагу. В шаге 4 будут прямые цитаты из текста — конкретные слова и фразы, на которые опирается вывод. Если в тексте нет оснований для какого-то утверждения — модель с такой структурой скорее скажет "маркеров не обнаружено", чем придумает несуществующее.
Почему это работает
Проблема: LLM не "читает" текст как человек — она генерирует следующий токен, опираясь на паттерны. Когда её просят "объясни почему", она часто генерирует правдоподобное объяснение, а не точное. Это называется score–evidence dissociation (разрыв между выводом и доказательством): вывод может быть правильным, а объяснение — сочинённым.
Что умеет модель хорошо: Следовать явной структуре. Если промпт требует "процитируй конкретные слова из текста", модель будет искать их — это значительно сложнее придумать, чем абстрактное "текст выражает тревогу".
Как метод обходит слабость: Требование цитаты физически привязывает рассуждение к источнику. Чтобы "выполнить" шаг 4, модель должна вернуться к тексту и найти что-то конкретное. Это не гарантия от галлюцинаций, но резко снижает их вероятность — особенно у более сильных моделей.
Рычаги управления: - Степень строгости цитирования — можно написать "цитируй дословно" vs "укажи часть текста" → второе немного мягче, первое точнее - Количество шагов разбора — добавляй или убирай критерии под задачу - Формат вывода — JSON для автоматизации, свободный текст для чтения - Число повторных запусков — задай один вопрос 2–3 раза и сравни, какие цитаты повторяются. Повторяющиеся в 2–3 запусках — надёжнее. Уникальные для одного запуска — проверяй вручную
Шаблон промпта
Ты — {роль_эксперта}.
Проанализируй {что_анализируем} по следующим шагам:
Шаг 1. {Первый_критерий}
- {Что искать}
- {Что искать}
Шаг 2. {Второй_критерий}
- {Что искать}
- {Что искать}
Шаг 3. Вывод
- {Оценка по критерию 1} (шкала {диапазон})
- {Оценка по критерию 2}
Шаг 4. Доказательства
- Процитируй конкретные слова и фразы из текста,
которые обосновывают каждый вывод выше
{Текст/документ для анализа}:
{вставить текст}
Плейсхолдеры:
- {роль_эксперта} — кто именно смотрит на текст: "опытный редактор", "инвестиционный аналитик", "юрист по трудовым спорам"
- {что_анализируем} — "это письмо", "эти отзывы", "этот договор"
- {Критерии} — что важно в вашей задаче: тон, риски, противоречия, эмоции
- {диапазон} — 1–5, 1–10, low/medium/high — как удобно
🚀 Быстрый старт — вставь в чат:
Вот шаблон для структурированного анализа текста с цитатами-доказательствами.
Адаптируй его под мою задачу: {опиши свою задачу}.
Задавай уточняющие вопросы, чтобы заполнить все поля.
[вставить шаблон выше]
LLM спросит: какую роль эксперта назначить, по каким критериям анализировать, какой текст подавать — потому что без этого не сможет заполнить структуру. Дальше она сгенерирует рабочий промпт под вашу задачу.
Ограничения
⚠️ Шаг 4 не гарантирует достоверность: модель может исказить цитату или вырвать слова из контекста. Всегда проверяй — есть ли эта фраза в тексте на самом деле.
⚠️ Абстрактные темы хуже поддаются верификации: если просишь найти "скрытый смысл" или "подтекст" — цитаты станут более произвольными. Метод лучше работает для конкретных маркеров (слова сомнения, финальные формулировки, конкретные факты).
⚠️ Депрессия vs тревога в оригинальном исследовании: авторы нашли асимметрию — модели хуже и нестабильнее находили маркеры депрессии, чем тревоги. Для скрытых, неочевидных состояний цитирование менее надёжно, чем для явно выраженных.
⚠️ Не применять как медицинский инструмент: исследование хотя и показывает потенциал, прямо указывает на ограничения для клинического использования.
Почему LLM-объяснения не надо принимать на веру
Самое важное открытие исследования — разрыв между выводом и доказательством. Три модели анализировали одни и те же тексты. Их итоговые оценки совпадали с коэффициентом 0.87 (очень высокое сходство). Но слова-доказательства, которые они цитировали для обоснования этих оценок, совпадали лишь на... 7–25%.
Это значит: модели пришли к одному ответу, но каждая "объясняла" его по-своему — разными словами, разными фрагментами. Как три юриста, которые с разными аргументами защищают один и тот же вывод.
Практический вывод: Когда модель объясняет своё рассуждение — это правдоподобное объяснение, а не отчёт о том, что "реально повлияло на ответ". Chain-of-Thought (пошаговое рассуждение) делает ответ лучше, но не делает объяснения абсолютно достоверными.
Как применить это знание: - Требуй цитаты → снижаешь произвольность объяснений - Запускай один и тот же промпт несколько раз → цитаты, которые повторяются, надёжнее - Проверяй ключевые цитаты вручную → особенно если решение важное
Как исследовали
Команда Эдинбургского университета взяла 111 записей голосовых дневников — люди описывали свой карантинный быт в пандемию. Каждый участник параллельно заполнил клинический опросник тревоги и депрессии (HADS). Затем три LLM — Phi-4, Gemma-2-9B и Llama-3.1-8B — получали транскрипты этих записей и без обучения оценивали уровень тревоги и депрессии по тем же шкалам.
Интересный дизайн: каждый промпт запускался трижды при стандартных настройках (не при температуре 0), чтобы проверить — насколько стабильны ответы при реалистичной работе. Транскрипты готовились четырьмя способами: вручную людьми и тремя версиями Whisper с разным качеством распознавания.
Неожиданная находка: у Phi-4 точность предсказания тревоги при более зашумлённых ASR-транскриптах выросла, а не упала. Оказалось, Whisper систематически удалял слова-паузы ("эм", "ну") — а модель опиралась на них как на маркеры тревоги больше, чем следует. Когда шум убрали, точность улучшилась. Это показало: выбор модели важнее качества транскрипции — надёжные модели справляются с зашумлёнными данными лучше, чем нестабильные с идеальными.
Адаптации и экстраполяции
🔧 Техника: перекрёстная проверка по повторным запускам
Запусти промпт с одним текстом 3 раза. Сравни шаг 4 (цитаты) в каждом ответе. Добавь в промпт финальный шаг:
Шаг 5. Только что я запускал этот анализ трижды. Вот три набора доказательств:
[Запуск 1]: {цитаты}
[Запуск 2]: {цитаты}
[Запуск 3]: {цитаты}
Выдели только те цитаты, которые встречаются в 2–3 запусках.
Это надёжные доказательства. Остальные — под вопросом.
Это ручная версия того, что исследователи делали автоматически — агрегация через повторные запуски убирает случайные объяснения и оставляет устойчивые.
🔧 Техника: "Найди это в тексте или скажи, что не нашёл"
Добавь в шаг доказательств явный escape вариант:
Шаг 4. Доказательства
Для каждого вывода:
— либо процитируй конкретную фразу из текста
— либо напиши: "В тексте прямых маркеров не обнаружено, вывод основан на косвенных признаках"
Это заставляет модель признавать отсутствие прямых доказательств, а не придумывать их.
Ресурсы
Статья: "Can We Trust LLMs for Mental Health Screening? Consistency, ASR Robustness, and Evidence Faithfulness"
Авторы: Erfan Loweimi, Sofia de la Fuente Garcia, Samira Loveymi, Hadi Daneshvar, Saturnino Luz
Организации: Usher Institute, Edinburgh Medical School, University of Edinburgh; Islamic Azad University (Ahvaz); Edinburgh Napier University
Датасет: PsyVoiD corpus (111 участников, Шотландия, COVID-19)
Инструмент оценки: Hospital Anxiety and Depression Scale (HADS)
