TL;DR
Когда LLM пишет в конце рассуждения "я уверен в своей логике" — это физически меняет ваше доверие к ответу, независимо от того, правильный он или нет. Это не метафора: исследование показало, что одна фраза уверенности повышает принятие совета даже при ошибочной цепочке шагов. Фраза о неуверенности работает в обратную сторону — роняет доверие ниже нейтрального уровня, даже когда рассуждение правильное.
Главная ловушка: LLM регулярно генерирует красиво структурированные, убедительно написанные рассуждения — с фактической ошибкой внутри или с противоречием между шагами и финальным ответом. Выглядит логично, звучит уверенно — вы принимаете совет, не проверив шаги. Уверенный нарратив ≠ надёжная логика.
Из этого вытекает конкретная техника: попросите LLM структурировать рассуждение так, чтобы вы могли проверить каждый шаг отдельно — с явными флагами неуверенности и самокоррекцией там, где она есть. Это переключает рассуждение из режима "читаешь и веришь" в режим "аудитный след, который можно прощупать".
Схема метода
ШАГ 1: Обычный вопрос к LLM
→ LLM отвечает + добавляет цепочку рассуждений
→ Вы читаете, чувствуете убедительность, доверяете
ШАГ 2: Промпт с аудитной структурой (всё в одном запросе)
→ Краткий ответ (1-2 предложения)
→ Шаги рассуждения — каждый отдельно
→ Флаги неуверенности на каждом шаге
→ Самокоррекция, если шаги противоречат друг другу
→ Итог: проверяемый "аудитный след" вместо нарратива
Всё выполняется в одном промпте — не нужно несколько запросов.
Пример применения
Задача: Артём готовит питч для инвесторов по edtech-стартапу. Просит Claude проверить утверждение: "Рынок онлайн-образования в России вырастет до 150 млрд рублей к 2026 году" — чтобы уверенно использовать цифру в презентации.
Промпт:
Проверь это утверждение и отвечай строго по структуре:
**Краткий вердикт:** [правдиво/спорно/неверно + 1 предложение]
**Пошаговая проверка:**
Шаг 1: [что именно проверяешь — источниковая база, логика, цифра]
Шаг 2: [следующий элемент проверки]
…
**Флаги неуверенности:**
Отметь каждый шаг, где у тебя нет твёрдой почвы: устаревшие данные,
разброс оценок, ненадёжный источник.
**Противоречия:**
Если вывод в кратком вердикте расходится с чем-то в шагах —
скажи об этом явно.
Утверждение: «Рынок онлайн-образования в России вырастет
до 150 млрд рублей к 2026 году»
Результат: Модель выдаст вердикт, потом — отдельные шаги: откуда берётся цифра, какие прогнозы есть, насколько они расходятся. На каждом шаге — явный сигнал: "здесь данные до 2022 года, актуальность под вопросом" или "оценки разных аналитиков расходятся в 2 раза". Если вывод противоречит какому-то шагу — модель это назовёт вместо того, чтобы просто написать уверенный финал. Артём увидит не "да, цифра правильная", а конкретные шаги с флагами — и сам решит, насколько уверенно можно использовать данные в питче.
Почему это работает
LLM генерирует текст, который звучит убедительно — это не признак правильности. Модель оптимизирована на связную, плавную речь. Уверенный тон — это стилистическая особенность, а не индикатор качества логики. Мы же читаем "я уверен в своих рассуждениях" и бессознательно воспринимаем это как сигнал компетентности.
Структура убирает двусмысленность и вводит "точки контроля". Когда рассуждение разбито на пронумерованные шаги, вы проверяете не "кажется ли ответ правдивым", а конкретный Шаг 3: "Подождите, тут написано Х — это противоречит Шагу 1". Ошибка становится видимой. Без структуры она тонет во флюиде убедительного текста.
Флаги неуверенности работают на вас, а не против. Исследование показало неожиданную вещь: люди воспринимают фразу "я не уверен" как сигнал недоверия ко всему ответу — хотя это честный сигнал о конкретном пробеле. Запрашивая флаги явно и по шагам, вы переводите их в полезный инструмент: "на этом шаге — неуверенность, на этом — твёрдая земля". Это калиброванное доверие вместо паники.
Рычаги управления промптом: - Детализация шагов → увеличьте для сложных юридических или финансовых вопросов, уберите для простых справок - Флаги неуверенности → всегда оставляйте, особенно для данных с датами и цифрами - Блок "Противоречия" → critical для проверки фактов перед публикацией или питчем - Краткий вердикт первым → "резюме перед деталями" — это то, что сами участники исследования просили как идеальный формат
Шаблон промпта
Ответь на мой вопрос строго по этой структуре:
**Краткий ответ:** [1-2 предложения, суть без деталей]
**Пошаговое рассуждение:**
Шаг 1: {первый элемент логики или проверки}
Шаг 2: {следующий элемент}
Шаг 3: {и т.д.}
Итог: {заключение, которое вытекает из шагов выше}
**Флаги неуверенности:**
Укажи каждый шаг, где у тебя нет твёрдой почвы:
устаревшие данные, допущения, спорные факты.
**Противоречия и самокоррекция:**
Если что-то в шагах расходится с кратким ответом или
между собой — назови явно. Не скрывай несоответствия
за уверенным финалом.
Мой вопрос: {вопрос}
Плейсхолдеры:
- {вопрос} — любой вопрос, решение, факт, который хотите проверить или осмыслить
- Шаги в шаблоне — LLM заполнит сам, вам не нужно их придумывать заранее
🚀 Быстрый старт — вставь в чат:
Вот шаблон для структурированной проверки рассуждений LLM.
Адаптируй под мою задачу: {твоя задача}.
Задавай уточняющие вопросы если нужно.
[вставить шаблон выше]
LLM спросит, что именно нужно проверить и какой уровень детализации хотите — потому что без этого она не знает, сколько шагов разворачивать и насколько дотошно флагить неуверенность.
Ограничения
⚠️ Субъективные задачи: Метод силён для фактов, логики, аналитики. Для "напиши текст в стиле Х" или "оцени, насколько это креативно" — шаги рассуждений менее проверяемы: нет объективного Шага 3, который можно опровергнуть.
⚠️ Уверенный тон остаётся: Даже с блоком флагов — LLM может написать "я уверен" в итоге. Присутствие блока структуры снижает риск, но не устраняет его полностью. Если видите уверенный финал при пустом блоке противоречий — это повод дополнительно проверить источники, не расслабляться.
⚠️ Самоконтроль LLM ограничен: Модель флагирует неуверенность там, где знает, что не уверена. Системные ошибки — когда модель уверенно генерирует неверный факт — этот шаблон не поймает. Для критически важных решений верификация внешними источниками обязательна.
⚠️ Формат подачи не важен: Исследование показало, что не имеет значения, появляется ли рассуждение мгновенно, с задержкой или по кнопке "Показать шаги". Так что не тратьте время на поиск "правильного" режима отображения в интерфейсе — важнее содержание рассуждения, а не как оно появляется.
Как исследовали
68 участников получили задание: проверять фактические утверждения с помощью LLM-интерфейса — например, "Майами находится на западном побережье США?". Каждый участник проходил 6 испытаний с разными комбинациями трёх переменных: правильность рассуждения (логически верное или с намеренной ошибкой внутри), тон уверенности (нейтральный / "я полностью уверен" / "я не вполне уверен") и формат подачи (мгновенно, с задержкой, по кнопке).
Самая неожиданная находка: формат вообще не повлиял на доверие. Люди одинаково реагировали независимо от того, появлялось рассуждение сразу или за кнопкой "Показать мышление". Зато тон уверенности — повлиял сильно. Фраза о неуверенности роняла доверие ниже, чем если бы тона не было вовсе: участники воспринимали её не как честность, а как некомпетентность.
Особенно интересен паттерн "несоответствие ответа и рассуждения": когда логика в шагах вела в одну сторону, а финал — в другую, участники замечали это и реагировали резким падением доверия. Один участник написал: "Мышление казалось непоследовательным, даже когда финальный ответ был правильным". Это подсказывает ключевую практику: смотрите не только на финал — проверяйте, совпадает ли он с тем, что написано в шагах.
Адаптации и экстраполяции
💡 Адаптация для многошаговых решений — например, выбор между двумя вариантами (оффер от работодателя, подрядчик для проекта):
Сравни два варианта и отвечай по структуре:
**Вывод:** [какой вариант предпочтительнее и почему — 1-2 предложения]
**Пошаговое сравнение:**
Критерий 1: {название} — Вариант А vs Вариант Б
Критерий 2: {название} — Вариант А vs Вариант Б
…
**Где я менее уверен:**
Назови критерии, где у тебя нет твёрдой почвы или нужна доп. информация.
**Если вывод спорный:**
Скажи прямо, если разница минимальная или зависит от приоритетов,
которые ты не знаешь.
Вариант А: {описание}
Вариант Б: {описание}
Контекст: {что для меня важно}
🔧 Техника: добавить "красные флаги" → заставить модель искать слабые места своей логики
После блока рассуждений добавьте:
**Контраргументы к собственному выводу:**
Назови 1-2 сильных аргумента ПРОТИВ своего заключения выше.
Это напрямую из инсайта исследования: пользователи хотят видеть не только "правильное рассуждение", но и явное признание того, где логика шатается. Без этого запроса модель редко добровольно ослабляет уверенность в своей позиции.
Ресурсы
Seeing the Reasoning: How LLM Rationales Influence User Trust and Decision-Making in Factual Verification Tasks CHI Extended Abstracts 2026, Barcelona, Spain DOI: https://doi.org/10.1145/3772363.3798613
Авторы: Xin Sun, Shu Wei, Jos A. Bosch, Isao Echizen, Saku Sugawara, Abdallah El Ali
Организации: National Institute of Informatics (Tokyo), University of Amsterdam, Yale School of Medicine, Centrum Wiskunde & Informatica (Amsterdam), Utrecht University
