3,583 papers
arXiv:2604.17293 74 19 апр. 2026 г. FREE

Uncertainty Attribution: два разных «не знаю» — и как это меняет что делать дальше

КЛЮЧЕВАЯ СУТЬ
Парадокс: за thinking-режим платите больше — а признаёт своё незнание он хуже. Qwen3-235B в режиме глубокого мышления: способность честно сказать 'это вне моих знаний' падает до 0% — против 84.8% в обычном режиме. Метод Uncertainty Attribution позволяет разделить два принципиально разных отказа: 'вопрос неполный' и 'я действительно не знаю'. Два шага анализа до ответа — и модель не просто отказывает, а ставит диагноз: 'уточни вопрос' или 'иди искать в другом месте'.
Адаптировать под запрос

TL;DR

Когда LLM не может ответить на вопрос, причина бывает двух типов. Первый: вопрос неполный — не хватает данных, условие размыто, информации недостаточно для однозначного ответа. Второй: вопрос корректный, но эта тема вне знаний или возможностей модели. Сейчас модели сваливают оба случая в одно общее «я не знаю» — или хуже, галлюцинируют вместо честного признания.

Главный инсайт исследования: модели умеют распознавать неполный вопрос, но плохо умеют признавать собственные ограничения. Qwen3-8B на знаниевых задачах: 69.8% точности в распознавании «вопрос плохой» и лишь 4.0% в признании «я не знаю потому что не умею». Это не баг одной модели — почти все 18 протестированных ведут себя так же. Причина: модели проще обвинить вопрос, чем признать собственный предел.

Техника из исследования — явная классификация источника неопределённости: перед ответом модель обязана определить, в чём именно проблема. Это не меняет то, какие вопросы модель решает или отклоняет — но делает отказ информативным. Вместо «не знаю» — диагноз: «вопрос требует уточнения» или «это выходит за пределы моих возможностей».


🔬

Схема метода

(Выполняется в одном промпте)

ШАГ 1: Анализ вопроса → есть ли ВСЯ информация для однозначного ответа?
ШАГ 2: Анализ себя  → достаточно ли моих знаний/возможностей, если вопрос корректен?
ШАГ 3: Вывод        → [ОТВЕТ] / [НЕПОЛНЫЙ ВОПРОС: чего не хватает] / [НЕ ЗНАЮ: признание предела]

🚀

Пример применения

Задача: Руководитель использует Claude как помощника для быстрых проверок юридических и финансовых вопросов. Нужен режим, при котором модель честно говорит о границах, а не выдаёт красиво оформленную ерунду.

Промпт:

Перед ответом выполни анализ в два шага.

Шаг 1 — Анализ вопроса:
Есть ли в вопросе вся необходимая информация для однозначного ответа?
Или чего-то не хватает, не указано, размыто?

Шаг 2 — Анализ своих возможностей:
Если вопрос полный и корректный — достаточно ли твоих знаний,
чтобы ответить уверенно и точно?

Затем выдай ОДИН вариант:

[ОТВЕТ]: (твой ответ на вопрос)

[НЕПОЛНЫЙ ВОПРОС]: (объясни, какой информации не хватает и зачем она нужна)

[НЕ ЗНАЮ]: (признай, что вопрос корректный, но эта тема или конкретный факт
вне твоих надёжных знаний — и укажи, где искать)

Вопрос: нужно ли платить страховые взносы с выплат самозанятому
по договору ГПХ, если у него нет статуса ИП?

Результат: Модель покажет явный шаг анализа — сначала разберёт, полный ли вопрос, потом оценит свою уверенность. В итоге выдаст один из трёх чётких вариантов. На этот конкретный вопрос (про самозанятых и страховые взносы) — скорее всего ответ, потому что тема задана точно. Но если спросить «нужно ли платить взносы за сотрудника» без деталей — модель укажет, чего не хватает. А на вопрос про конкретную судебную практику 2024 года по малоизвестному делу — честно скажет «не знаю» вместо того, чтобы выдумать.


🧠

Почему это работает

Слабость LLM по умолчанию: модель в момент генерации не «решает» — выдавать ли ответ или отказаться. Она просто продолжает текст. Если нет явной инструкции остановиться и покатегоризировать, модель «катится» к ответу — правильному или нет. Особенно это проявляется в режимах глубокого мышления (o1, thinking mode): они обучены искать решение, поэтому когда решения нет, они склонны обвинить вопрос вместо признания собственного предела. Исследование показало: у Qwen3-235B в thinking mode способность признавать собственные ограничения упала до 0% — против 84.8% в обычном режиме.

Сильная сторона LLM: модели хорошо следуют явным категориям, если те заданы заранее. Дашь три чётких ящика — «ответ / вопрос неполный / не знаю» — и заставишь выбрать один, модель начинает рассуждать иначе. Принудительная классификация перед ответом — это не магия, это устранение двусмысленности: у модели нет варианта «промолчать и угадать».

Как метод обходит слабость: явный двухшаговый анализ ДО генерации ответа. Модель сначала анализирует вопрос (шаг 1), потом себя (шаг 2), и только потом выдаёт результат. Это как чек-лист перед хирургической операцией — не гарантия, но резко снижает вероятность что пропустишь очевидное.

Рычаги управления: - Добавь 4-й вариант — «[ЧАСТИЧНО]» — если нужна смешанная ситуация: вопрос частично корректен, частичный ответ возможен - Убери шаги анализа из вывода — если нужен только финальный результат без объяснений, добавь «не показывай шаги анализа, только финальный вывод» - Повышай строгость — добавь «если есть малейшие сомнения — выбирай [НЕ ЗНАЮ], а не [ОТВЕТ]» для высокорисковых задач (медицина, юриспруденция) - Особая осторожность с thinking mode — если используешь o1 или Deep Think, этот промпт особенно важен: именно эти модели сильнее склонны «обвинять вопрос» вместо признания своих ограничений


📋

Шаблон промпта

Перед ответом выполни анализ в два шага.

Шаг 1 — Анализ вопроса:
Есть ли в вопросе вся необходимая информация для однозначного ответа?
Или чего-то не хватает, не указано, есть двусмысленность?

Шаг 2 — Анализ своих возможностей:
Если вопрос полный — достаточно ли твоих знаний и возможностей,
чтобы ответить точно и уверенно?

Затем выдай ОДИН из трёх вариантов:

[ОТВЕТ]: {твой ответ}

[НЕПОЛНЫЙ ВОПРОС]: {что именно не указано и зачем это нужно для ответа}

[НЕ ЗНАЮ]: {честное признание — вопрос корректный, но тема вне твоих надёжных знаний;
укажи куда обратиться за ответом}

Вопрос: {вопрос}

Плейсхолдеры: - {вопрос} — любой вопрос, где важна точность, а не случайный ответ


🚀 Быстрый старт — вставь в чат:

Вот шаблон Uncertainty Attribution — метода, при котором LLM
чётко говорит ПОЧЕМУ не может ответить: вопрос неполный или тема вне её знаний.
Адаптируй под мою задачу: {опиши свою задачу}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про тип задач (юриспруденция? финансы? факты?) и насколько строгим должен быть режим — потому что от этого зависит настройка третьего варианта и уровень осторожности модели.


⚠️

Ограничения

⚠️ Thinking-режим работает хуже: если используешь o1, Deep Think или аналоги — они сильнее склонны «обвинить вопрос» (Data Uncertain) вместо признания собственных пределов (Model Uncertain). Промпт помогает, но не устраняет проблему полностью.

⚠️ Субъективные вопросы — серая зона: на вопросах типа «какая стратегия лучше для моего бизнеса» граница между двумя типами неопределённости размывается. Метод заточен под объективные вопросы с проверяемым ответом.

⚠️ Модель всё ещё может перепутать: исследование показало, что даже с явной инструкцией модели иногда принимают своё незнание за неполноту вопроса — особенно когда вопрос сформулирован чётко, но тема редкая. Это снижает доверие, но не обнуляет ценность метода.

⚠️ Не для простых или творческих задач: если спрашиваешь «напиши стихотворение» или «объясни простыми словами» — три-категорийная система избыточна и замедляет ответ без пользы.


🔗

Ресурсы

Beyond "I Don't Know": Evaluating LLM Self-Awareness in Discriminating Data and Model Uncertainty Jingyi Ren, Ante Wang, Yunghwei Lai, Xiaolong Wang, Linlu Gong, Weitao Li, Weizhi Ma, Yang Liu Tsinghua University / Institute for AI Industry Research (AIR) Код и данные: github.com/ren258/UA-Bench


📋 Дайджест исследования

Ключевая суть

Парадокс: за thinking-режим платите больше — а признаёт своё незнание он хуже. Qwen3-235B в режиме глубокого мышления: способность честно сказать 'это вне моих знаний' падает до 0% — против 84.8% в обычном режиме. Метод Uncertainty Attribution позволяет разделить два принципиально разных отказа: 'вопрос неполный' и 'я действительно не знаю'. Два шага анализа до ответа — и модель не просто отказывает, а ставит диагноз: 'уточни вопрос' или 'иди искать в другом месте'.

Принцип работы

По умолчанию модель просто продолжает текст. Нет момента 'стоп, могу ли я вообще ответить?'. Это как хирург, который начинает резать без предоперационного чеклиста. Uncertainty Attribution добавляет чеклист: сначала оцени вопрос → потом оцени себя → только потом отвечай. Три ящика вместо свободного поля — и у модели больше нет варианта 'промолчать и угадать'. Она обязана выбрать: [ОТВЕТ], [НЕПОЛНЫЙ ВОПРОС] или [НЕ ЗНАЮ]. Принудительный выбор меняет всё.

Почему работает

Модели хорошо следуют явным категориям — это их сильная сторона. Слабая: без принудительного выбора они 'катятся' к ответу по умолчанию. Thinking-модели особенно: они обучены находить решения, поэтому когда решения нет — предпочитают обвинить вопрос, а не себя. Qwen3-8B: 69.8% точности в распознавании плохого вопроса — и лишь 4.0% в признании 'я не умею это'. Разрыв в 17 раз. Без явной категории 'мои ограничения' модель её просто не использует — даже если умеет.

Когда применять

Юриспруденция, медицина, финансы → конкретные вопросы с проверяемым ответом, особенно когда цена ошибки высока. Аналитика и исследования → вопросы с чёткими условиями, где нужен точный ответ, а не приблизительные рассуждения. Использование o1, Deep Think или аналогов → промпт особенно важен именно здесь. НЕ подходит для творческих задач ('напиши текст'), субъективных вопросов ('что лучше для моего бизнеса') и простых объяснений — там три категории только замедлят ответ без пользы.

Мини-рецепт

1. Вставь чеклист перед вопросом: два шага — 'оцени вопрос' (вся ли информация есть для однозначного ответа?) и 'оцени себя' (достаточно ли знаний, если вопрос корректен?).
2. Дай три ящика: [ОТВЕТ] / [НЕПОЛНЫЙ ВОПРОС: чего именно не хватает] / [НЕ ЗНАЮ: честное признание + куда идти за ответом]. Без промежуточных вариантов — модель обязана выбрать один.
3. Для медицины и юриспруденции добавь: 'если есть малейшие сомнения — выбирай [НЕ ЗНАЮ]'. Это страховка от уверенной выдумки на редких или устаревших фактах.
4. Используешь o1 или Deep Think? Этот промпт там важнее всего. Thinking-режимы сильнее других склонны обвинять вопрос вместо признания своих пределов. Промпт не устраняет проблему полностью — но сдвигает в лучшую сторону.

Примеры

[ПЛОХО] : Нужно ли платить взносы за самозанятого? (Модель выдаст уверенный ответ — возможно правильный, возможно нет. Непонятно чему верить.)
[ХОРОШО] : Перед ответом выполни анализ в два шага. Шаг 1 — Анализ вопроса: вся информация есть для однозначного ответа? Или чего-то не хватает? Шаг 2 — Анализ себя: если вопрос полный — достаточно ли твоих знаний ответить точно? Затем выдай ОДИН вариант: [ОТВЕТ]: (ответ) [НЕПОЛНЫЙ ВОПРОС]: (что не указано и зачем это нужно) [НЕ ЗНАЮ]: (честное признание + куда обратиться) Вопрос: нужно ли платить страховые взносы с выплат самозанятому без статуса индивидуального предпринимателя по договору гражданско-правового характера? (Модель покажет шаги анализа. На этот вопрос — скорее [ОТВЕТ], тема задана точно. На 'нужно ли платить взносы за сотрудника' — [НЕПОЛНЫЙ ВОПРОС]. На редкую судебную практику 2024 года — [НЕ ЗНАЮ] вместо выдумки.)
Источник: Beyond 'I Don't Know': Evaluating LLM Self-Awareness in Discriminating Data and Model Uncertainty
ArXiv ID: 2604.17293 | Сгенерировано: 2026-04-21 05:36

Проблемы LLM

ПроблемаСутьКак обойти
Два разных «не знаю» сливаются в одноМодель не различает две разные ситуации. Первая: вопрос размытый — данных не хватает для ответа. Вторая: вопрос чёткий — но тема вне знаний модели. В обоих случаях модель говорит одно и то же: «я не уверен» или «зависит от контекста». Или ещё хуже — выдаёт уверенный ответ в обоих случаях. Ты не знаешь: переспросить или идти проверять в другой источникЗаставь модель выбрать один из трёх явных вариантов до ответа: «[ОТВЕТ]» / «[НЕПОЛНЫЙ ВОПРОС]» / «[НЕ ЗНАЮ]». Добавь двухшаговый анализ перед выбором: сначала — полный ли вопрос, потом — достаточно ли знаний модели

Методы

МетодСуть
Двухшаговый анализ — диагноз вместо отказаПеред ответом модель выполняет два шага. Шаг 1: полный ли вопрос? Есть ли вся нужная информация? Шаг 2: если вопрос полный — достаточно ли у меня знаний? Потом — один из трёх вариантов. [ОТВЕТ] / [НЕПОЛНЫЙ ВОПРОС]: чего не хватает и зачем / [НЕ ЗНАЮ]: признание предела + куда идти за ответом. Почему работает: без явных категорий модель «катится» к ответу — правдоподобному тексту, а не решению. Три чётких ящика устраняют этот путь наименьшего сопротивления. Модель вынуждена выбрать, а не угадать. Когда применять: юридические, финансовые, медицинские и любые другие фактические вопросы, где цена ошибки высока. Когда не нужен: творческие задачи, пересказ, генерация текста — три категории там избыточны

Тезисы

ТезисКомментарий
Thinking-режимы сильнее обвиняют вопрос и реже признают своё незнаниеМодели с глубоким мышлением (o1, Deep Think и аналоги) обучены искать решение. Когда решения нет — они склонны списать это на неполноту вопроса, а не на собственный предел. Эффект сильный: способность признать «это вне моих знаний» падает у некоторых thinking-моделей почти до нуля — против высоких показателей в обычном режиме. Применяй: если используешь thinking-режим для точных фактических задач — двухшаговая классификация там особенно важна, а не просто полезна
📖 Простыми словами

Beyond "I Don't Know": EvaluatingLLMSelf-Awareness in Discriminating Data andModelUncertainty

arXiv: 2604.17293

Когда нейросеть говорит «я не знаю», она нагло врет, потому что сама не понимает, почему именно она села в лужу. Внутри LLM происходит каша из двух принципиально разных проблем: либо ты задал кривой вопрос с нехваткой данных, либо вопрос отличный, но у модели в голове пустота. Сейчас нейронки не видят разницы и просто выдают стандартную отмазку или, что еще хуже, начинают уверенно галлюцинировать, пытаясь угодить пользователю любой ценой.

Это как если бы ты спросил дорогу у прохожего. В первом случае ты забыл сказать, куда именно тебе надо, а во втором — ты спросил адрес в Лондоне, находясь в Рязани. Обычный человек сразу скажет: «Чувак, уточни адрес» или «Я не местный». Но нейросеть ведет себя как гиперактивный стажер, который боится признаться в некомпетентности и начинает судорожно придумывать маршрут, лишь бы не молчать.

Чтобы это исправить, исследователи внедрили дискриминацию неопределенности — метод, который заставляет модель сначала проанализировать причину своего тупняка. Если данных в промпте мало, модель должна требовать уточнений, а если она просто не знает фактов — честно расписаться в бессилии. В тестах использовали Qwen3-235B и другие топовые модели, чтобы проверить, могут ли они разделять эти сценарии в рамках одного промпта, не скатываясь в бессмысленный поток слов.

Оказалось, что хваленый thinking mode (как в моделях o1 или глубоких рассуждениях) — это палка о двух концах. Когда модель заставляют «думать дольше», она настолько увлекается поиском решения, что ее способность признавать свои границы падает до нуля. Вместо адекватных 84% честных отказов в обычном режиме, «думающая» модель начинает высасывать ответ из пальца, потому что установка «найти решение любой ценой» убивает критическое мышление.

Короче: чем умнее и «задумчивее» становится нейронка, тем сильнее она зарывается в галлюцинации, если не заставлять её четко классифицировать свои затыки. Нужно перестать ждать от AI универсального «я не знаю» и внедрять жесткие фильтры на неполноту данных и отсутствие знаний. Иначе мы так и будем получать красиво оформленную чушь, которую модель сама считает истиной в последней инстанции.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с