3,583 papers
arXiv:2603.11213 74 11 мар. 2026 г. FREE

«Плато недодоверия»: неверный ответ ИИ сильнее всего вредит там, где вы сами знаете ответ

КЛЮЧЕВАЯ СУТЬ
Парадокс: неверный ответ ИИ на лёгком вопросе роняет точность специалиста на две трети — именно там, где без бота он отвечал правильно в 75% случаев. Понимание этого паттерна позволяет выстроить асимметричную стратегию доверия к ИИ: осторожнее там, где знаешь, смелее — там, где не уверен. Фишка: знакомая задача — самое опасное место для слепого доверия ИИ, потому что уверенный тон бота ломает вашу уверенность сильнее всего именно тогда, когда вы правы.
Адаптировать под запрос

TL;DR

Исследование раскрывает контринтуитивный паттерн: ошибки ИИ наиболее опасны именно там, где человек хорошо разбирается. На лёгких вопросах, где специалисты без бота давали правильный ответ в 75%+ случаев, неверная подсказка ИИ роняла точность на две трети. На сложных вопросах та же неверная подсказка вредила значительно меньше — потому что человек и без бота был не уверен.

Второй ключевой инсайт: люди не умеют оценивать качество ИИ. Корреляция между тем, насколько специалист доверял боту, и реальной точностью бота — 0.04. Это почти ноль. Вы не чувствуете, хорош бот или плох.

Из этого вырастает третья находка — «плато недодоверия»: после 80% точности бота человеческая точность перестаёт расти пропорционально. Бот становится лучше, а человек продолжает игнорировать часть правильных подсказок — особенно на сложных вопросах. Люди системно недобирают качество, которое им уже предоставляет ИИ.


📌

Схема находки

ЛЁГКИЙ ВОПРОС + неверный ИИ → точность падает на 2/3 (самый опасный сценарий)
ЛЁГКИЙ ВОПРОС + верный ИИ  → небольшой прирост (человек и так знал)

СЛОЖНЫЙ ВОПРОС + неверный ИИ → точность падает умеренно (человек и без того терялся)
СЛОЖНЫЙ ВОПРОС + верный ИИ  → огромный прирост +45pp (ИИ реально помогает)

НА ЛЮБОМ УРОВНЕ качества бота: люди не могут оценить, хорош он или нет
ПОСЛЕ 80% точности бота: человеческая точность выходит на плато → «недодоверие»

Всё в одном чтении, не требует дополнительных запросов — это поведенческий паттерн, который меняет то, как вы работаете с ИИ.


🚀

Пример применения

Сильная зона метода: Знание паттерна помогает перестроить доверие к ИИ в зависимости от того, знакомая задача или новая. Особенно актуально в юридических, финансовых, регуляторных вопросах — где цена ошибки высокая.


Задача: Вы — налоговый консультант. Проверяете, можно ли клиенту учесть расходы на домашний офис при упрощёнке. Спрашиваете Claude.

Промпт:

Я консультирую ИП на УСН «доходы минус расходы». Клиент работает из дома 
и хочет включить в расходы аренду части квартиры (у него в собственности) 
под рабочий кабинет.

Прежде чем отвечать:
— Насколько этот вопрос однозначен в российском налоговом праве?
— Это стандартная ситуация или есть спорные моменты?

Потом дай ответ с опорой на НК РФ и позицию ФНС.

Результат:

Модель сначала оценит сложность вопроса. Если скажет «это спорно / позиция ФНС и судов расходится» — вы знаете: это сложный вопрос, и ответу ИИ стоит доверять больше (плюс проверить первоисточник). Если скажет «это однозначно» — включите скептицизм: именно на таких «очевидных» вещах неверный ответ ИИ ломает вашу уверенность сильнее всего.

Второй блок ответа выдаст конкретику с отсылками на нормы.


🧠

Почему это работает

Слабость человека плюс ИИ: Когда человек уверен в своём ответе, он более восприимчив к авторитетной альтернативе — если та преподносится уверенно. ИИ-бот всегда отвечает уверенно. На лёгком вопросе вы думаете: «наверное, я что-то упустил» — и следуете боту. Это автоматизационное смещение: на знакомой территории люди больше сомневаются в себе, видя чужое несогласие.

На сложных вопросах риск ниже, но другой: Там вы и без бота не уверены — поэтому неверный ответ ИИ не так сильно сдвигает вас с места. Зато правильный ответ ИИ помогает колоссально — вы его часто принимаете. Проблема в том, что люди всё равно не используют 100% качества бота: остаётся разрыв, особенно на самых сложных вопросах.

Практический вывод: Ваша стратегия доверия к ИИ должна быть асимметричной. На знакомых задачах — усиленный скептицизм к ответам, которые расходятся с вашим. На незнакомых — активнее следовать логике ИИ, а не только интуиции.

Рычаги управления: - Добавьте вопрос о сложности в свои промпты → ИИ сигнализирует, насколько ответ однозначен - Просите указывать спорные моменты → снижает риск слепого доверия точному, но неверному ответу - На знакомых темах → просите ИИ «сыграть адвоката дьявола» против его же ответа


📋

Шаблон промпта

Универсальный шаблон для знание-интенсивных задач — встройте калибровку сложности:

{Контекст задачи и вопрос}

Перед ответом оцени:
1. Насколько этот вопрос однозначен? (шкала: стандартно / есть нюансы / спорно)
2. Где чаще всего ошибаются в этой теме?

Затем дай ответ. Если есть спорные интерпретации — укажи их явно.

Что подставлять: - {Контекст задачи} — ваша ситуация + конкретный вопрос - Подходит для юридических, налоговых, медицинских, регуляторных тем - Работает в ChatGPT и Claude без дополнительных настроек

🚀 Быстрый старт — вставь в чат:

Мне нужен шаблон запроса, который сначала просит ИИ оценить сложность 
и неоднозначность вопроса, а потом даёт ответ. Адаптируй под мою задачу: 
{твоя тема/задача}. Задавай вопросы.

[вставить шаблон выше]

LLM спросит вашу область и тип вопросов — потому что калибровка сложности работает по-разному в юриспруденции, медицине и финансах.


⚠️

Ограничения

⚠️ Это поведенческий инсайт, не техника: Знание паттерна не защищает от него автоматически. Автоматизационное смещение — когнитивный процесс, а не осознанный выбор. Нужна намеренная привычка проверять ИИ на знакомых темах.

⚠️ Нельзя оценить качество бота на ходу: Исследование показало: восприятие точности бота практически не коррелирует с реальной точностью. Не надейтесь на чутьё — выстраивайте независимую проверку.

⚠️ Контекст — SNAP в Калифорнии: Исследовали специалистов-людей с профессиональными знаниями, не рядовых пользователей. Масштаб эффекта может отличаться в других сценариях. Но направление — сохраняется.


🔍

Как исследовали

Команда из Cornell Tech и Georgetown взяла реальную проблему: некоммерческие организации в Лос-Анджелесе помогают людям разобраться с программой SNAP (американские продуктовые талоны), и их сотрудники регулярно ошибаются в сложных случаях. Исследователи создали 770 вопросов с множественным выбором — трудных, но реалистичных, на основе данных о реальных ошибках при проверке SNAP-заявок.

Дальше — элегантное решение: они не использовали «живой» бот, а жёстко зашили правильные и неправильные ответы под видом подсказок. Это позволило точно управлять качеством «бота» — от 53% до 100% точности — и наблюдать, как меняется поведение 125 специалистов. 31 человек работал без подсказок (контроль), 94 — с подсказками разного уровня.

Самый любопытный результат — не там, где ждали. Исследователи ожидали, что рост качества бота линейно улучшит результаты людей. Но после 80% точности кривая выровнялась: люди продолжали игнорировать часть верных ответов. На вопрос «почему» ответил тест на восприятие: корреляция между тем, насколько специалисты доверяли именно своему боту, и его реальной точностью составила 0.04. Люди буквально не умели отличить хороший бот от плохого — и поэтому продолжали полагаться на интуицию даже когда бот был прав.


💡

Адаптации и экстраполяции

💡 Адаптация для самопроверки: Используйте принцип «лёгкое = опаснее» при редактуре текстов. Когда ИИ предлагает изменение в фрагменте, который вы считаете сильным — будьте особенно критичны. Это зона наибольшего риска принять плохой совет.

🔧 Техника: явный запрос на несогласие → снижение автоматизационного смещения

Вместо того чтобы просто спросить — добавьте контрудар:

{Ваш вопрос}

Дай ответ. Затем попробуй его опровергнуть: где твой ответ может быть 
неверным, неполным или зависеть от условий, которые я не указал?

Это форсирует выход из «уверенного тона» бота и снижает риск слепого следования — особенно на знакомых вам темах.

🔧 Экстраполяция: плато недодоверия → осознанный режим "следуй ИИ"

Если вы работаете с незнакомой областью (новая индустрия, чужая специализация, нестандартный юридический вопрос) — попробуйте явно включить режим:

Я не эксперт в этой области. Дай подробный ответ и в конце скажи: 
если бы ты был на 95% уверен в ответе — что именно я должен сделать?
Я готов следовать твоей рекомендации, но хочу понять логику.

Этот подход работает против плато недодоверия: вы намеренно снижаете порог доверия к собственной неуверенности и даёте больше веса ИИ там, где это оправдано.


🔗

Ресурсы

Название: LLMs in social services: How does chatbot accuracy affect human accuracy?

Авторы: Jennah Gosciak, Eric Giannella, Zhaowen Guo, Michael Chen, Allison Koenecke

Организации: Cornell Tech (Information Science), Better Government Lab (Georgetown University), Nava Labs

Дата: март 2026

Репликационные материалы: https://anonymous.4open.science/r/chatbots-social-services-94EB

Датасет SNAP QC: https://snapqcdata.net/


📋 Дайджест исследования

Ключевая суть

Парадокс: неверный ответ ИИ на лёгком вопросе роняет точность специалиста на две трети — именно там, где без бота он отвечал правильно в 75% случаев. Понимание этого паттерна позволяет выстроить асимметричную стратегию доверия к ИИ: осторожнее там, где знаешь, смелее — там, где не уверен. Фишка: знакомая задача — самое опасное место для слепого доверия ИИ, потому что уверенный тон бота ломает вашу уверенность сильнее всего именно тогда, когда вы правы.

Принцип работы

На знакомой территории мозг делает странное: видит уверенное несогласие авторитетного источника — и начинает сомневаться в себе. Это называется автоматизационное смещение. На лёгкой задаче думаешь: «наверное, я что-то упустил» — и следуешь боту. На сложном вопросе этот механизм слабее. Вы и так не уверены, поэтому неверный ответ ИИ не так сильно сдвигает вас с места. Зато правильный ответ на сложном вопросе даёт +45 процентных пунктов к точности — огромный выигрыш. Высокая уверенность в ответе = высокий риск от ошибки ИИ. Низкая уверенность = высокая польза от правильного ответа ИИ. Это не баг в вас — это предсказуемый паттерн.

Почему работает

Есть ещё один удар под дых. Корреляция между тем, насколько специалист доверял боту, и реальной точностью бота — 0.04. Почти идеальный ноль. Вы не чувствуете, хорош бот или нет — даже если работаете с ним каждый день. Интуиция здесь не работает. Из этого вырастает «плато недодоверия»: после 80% точности бота человеческая точность перестаёт расти пропорционально. Бот становится лучше — люди продолжают игнорировать часть правильных подсказок. Недобирают качество, которое им уже дают.

Когда применять

Юридические, налоговые, медицинские, регуляторные вопросы — везде, где цена ошибки высокая и ответы бывают неоднозначными. Особенно важно на задачах, которые кажутся вам простыми и знакомыми: именно здесь риск автоматизационного смещения максимален. НЕ подходит как стратегия там, где нет предметной экспертизы вообще — тогда нечем оценивать, насколько вопрос лёгкий или сложный для вас лично.

Мини-рецепт

1. Добавьте оценку сложности в каждый промпт: попросите бота сначала сказать, насколько вопрос однозначен — стандартно, есть нюансы или спорно. Это даёт сигнал ещё до того, как вы прочитаете ответ.
2. Попросите назвать типичные ошибки по теме: «где чаще всего ошибаются здесь?» — помогает выявить слабые места ответа до того, как вы ему поверили.
3. На знакомых темах включите скептицизм: если ответ бота расходится с вашим — не спешите. Попросите ИИ сыграть «адвоката дьявола» против его же ответа.
4. На незнакомых темах — наоборот: активнее следуйте логике ИИ, а не интуиции. Именно здесь правильный ответ бота работает сильнее всего — и именно здесь люди систематически недобирают качество.

Примеры

[ПЛОХО] : Можно ли ИП на УСН учесть расходы на домашний офис?
[ХОРОШО] : Я консультирую ИП на УСН «доходы минус расходы». Клиент хочет включить в расходы аренду части квартиры под рабочий кабинет. Перед ответом скажи: насколько этот вопрос однозначен в российском налоговом праве — стандартно, есть нюансы или спорно? Где чаще всего ошибаются в этой теме? Потом дай ответ с опорой на НК РФ и позицию ФНС. Результат: если бот говорит «спорно» — доверяйте ему больше и проверяйте первоисточник. Если говорит «стандартно» — включите скептицизм: именно на таких вопросах неверный ответ ломает вашу уверенность сильнее всего.
Источник: LLMs in social services: How does chatbot accuracy affect human accuracy?
ArXiv ID: 2603.11213 | Сгенерировано: 2026-03-13 04:28

Проблемы LLM

ПроблемаСутьКак обойти
Качество ответа не чувствуется интуитивноКажется, что понимаешь — хороший ответ или нет. Но это ощущение не связано с реальной точностью. Доверяешь модели там, где она ошибается. И сомневаешься там, где она права. Чутьё не работаетНе опирайся на ощущение "этот ответ звучит правильно". Встраивай явную проверку в запрос: проси модель показать основание, указать спорные места, сослаться на источник

Методы

МетодСуть
Оценка сложности перед ответомДобавь в запрос блок ДО основного вопроса: попроси модель оценить, насколько вопрос однозначен. Шаблон: Перед ответом оцени: 1) Насколько этот вопрос однозначен? (стандартно / есть нюансы / спорно) 2) Где чаще всего ошибаются в этой теме? Затем дай ответ. Спорные интерпретации укажи явно. Почему работает: Модель выдаёт сигнал до того, как ты прочитал ответ. Ты знаешь заранее — верить осторожно или следовать. На однозначных вопросах — добавь скептицизм. На спорных — следуй логике модели внимательнее. Когда применять: юридические, налоговые, медицинские, регуляторные вопросы. Любая тема где цена ошибки высокая
📖 Простыми словами

LLMsin social services: How does chatbot accuracy affect human accuracy?

arXiv: 2603.11213

Проблема здесь не в том, что нейросети тупые, а в том, как устроены наши мозги. Когда ты работаешь с ИИ, срабатывает автоматизационное смещение: бот всегда вещает максимально уверенно, даже если несёт полную чушь. И вот тут кроется ловушка: если ты профи в теме, неверная подсказка ИИ бьёт по тебе больнее, чем по новичку. Ты видишь ответ, который противоречит твоим знаниям, и вместо того, чтобы послать бота лесом, начинаешь сомневаться в себе. В итоге точность экспертов падает на две трети именно на тех задачах, которые они раньше щелкали как орешки.

Это как если бы ты всю жизнь водил машину по знакомому району, но вдруг навигатор уверенно скомандовал повернуть под кирпич. Ты знаешь, что там тупик, но авторитетный голос из коробочки заставляет тебя думать: «Может, там дорогу открыли, а я не в курсе?». В итоге ты сворачиваешь и влетаешь в забор. На сложных и незнакомых трассах ты и так осторожен, поэтому враньё навигатора там не так фатально — ты всё равно всё перепроверяешь. А вот на «домашнем поле» ты расслабляешься и позволяешь ИИ себя обмануть.

Исследователи копнули в цифры и увидели жуткую картину: на легких вопросах, где люди сами справлялись в 75% случаев, кривой совет бота просто уничтожал результат. Это происходит из-за иллюзии авторитета. Бот не сомневается, у него нет интонаций неуверенности, и профи подсознательно сдает позиции, думая, что машина учла какие-то скрытые факторы. На сложных же задачах, где человек изначально «плавает», вред от ошибок ИИ был значительно ниже — там люди и так не ждали легких ответов и сохраняли хоть какой-то критический фильтр.

Этот принцип универсален для любой интеллектуальной работы: от юристов, проверяющих договоры, до программистов на код-ревью. Тестировали на социальных службах, но эффект ложной уверенности одинаково убивает продуктивность и в финансах, и в медицине. Везде, где есть «понятные» задачи, ИИ становится не помощником, а диверсантом. Как только ты чувствуешь, что задача простая — это сигнал удвоить бдительность, потому что именно здесь бот может незаметно скормить тебе лажу, а ты её проглотишь.

Короче, главная опасность ИИ не в том, что он заменит профи, а в том, что он сделает их неуверенными в собственной правоте. Доверие к боту должно быть обратно пропорционально твоей экспертизе в конкретном вопросе. Если ты профи — проверяй за нейросетью каждое слово, иначе её уверенный бред станет твоей ошибкой. Кто не научится вовремя выключать «режим доверия», тот быстро растеряет квалификацию и начнет косячить на ровном месте.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с