3,583 papers
arXiv:2605.05401 72 6 мая 2026 г. FREE

Контрастный вопрос: как LLM угадывает — и не угадывает — что ты имел в виду

КЛЮЧЕВАЯ СУТЬ
На «почему X?» существует бесконечно много правильных ответов — всё зависит от того, с чем именно ты сравниваешь. LLM выбирает контраст сама. И часто выбирает не тот, который ты имел в виду. Явный контраст позволяет получать точные ответы на аналитические «почему?» — без риска что модель ответит на соседний вопрос. Добавь «а не [альтернатива]» прямо в вопрос: модель перестаёт угадывать и объясняет именно тот разрыв, который тебя беспокоит. «Почему теряем пользователей?» → «почему теряем платящих, а не бесплатных?» — разница между общим советом и точным диагнозом.
Адаптировать под запрос

TL;DR

Когда ты спрашиваешь «почему?», LLM должна угадать, с чем ты мысленно сравниваешь. Вопрос «Почему продажи упали?» можно понять как минимум двумя способами: «почему упали, а не выросли?» или «почему мы упали, а конкуренты нет?» — это совершенно разные вопросы, требующие совершенно разных ответов. Этот неявный контраст называется foil (фойл — альтернатива, которую спрашивающий держит в голове).

Люди восстанавливают фойл через ретроспективное ожидание: после того как узнали что произошло, они думают «что вместо этого могло бы случиться?» — и именно эта альтернатива становится неявным контрастом вопроса. LLM делают это непоследовательно: крупные модели (GPT, Llama-70B) частично угадывают правильно, маленькие (Mistral-7B, Qwen-7B) — почти никогда.

Вывод для практики: LLM не знает, что именно тебя удивило. Если не сказать явно — она ответит на соседний вопрос. Решение: всегда называй контраст прямо — «почему X, а не Y?» вместо «почему X?».


🔬

Схема метода

БЫЛО:  "Почему X?" — LLM угадывает контраст (часто ошибается)

СТАЛО: "Почему X, а не Y?" — контраст задан явно, ответ прицельный

ФОРМУЛА ПЕРЕФОРМУЛИРОВКИ:
Шаблон "Почему [событие]?"
→ "Почему [событие], а не [альтернатива, которую ты держишь в голове]?"

Один запрос, без дополнительных шагов.

🚀

Пример применения

Задача: Разбор провала продукта на совещании. Нужно понять причины — и сделать правильные выводы, а не общие.

Промпт без контраста (рискованный):

Почему наше приложение теряет пользователей?

Модель ответит на свой вопрос — например, объяснит, почему теряет вместо «удерживает». Но ты, возможно, хотел понять другое: почему теряете именно к Авито/Ozon, а не к NoName-конкурентам. Или почему уходят именно платящие, а не бесплатные. LLM не знает.

Промпт с явным контрастом:

Почему наше приложение теряет платящих пользователей, а не бесплатных?

Контекст: у нас freemium-модель, отток среди платных вырос на 30% 
за квартал, среди бесплатных — не изменился. Объясни,  
что именно в этой разнице — ключ к проблеме.

Результат: Модель сфокусируется именно на том разрыве, который тебя беспокоит: платные vs бесплатные пользователи. Ответ будет про ценность платного тарифа, восприятие цены, конкурентные предложения — а не про UX в целом или онбординг новых юзеров.


🧠

Почему это работает

Почему вопрос без контраста даёт размытый ответ. На любой вопрос «почему?» существует бесконечно много корректных ответов — в зависимости от того, с чем сравниваешь. «Почему Вася уволился?» — потому что нашёл лучшую зарплату (vs остаться), потому что не Петя уволился первым (vs кто-то другой), потому что сейчас, а не год назад (vs другое время). Все три ответа правдивы, но только один отвечает на твой вопрос.

Почему LLM не угадывает так же хорошо, как человек. Человек инферирует контраст через ретроспективное ожидание: зная результат, он думает «что вместо этого было бы естественно?» — и это подсказывает ему альтернативу. Этот процесс опирается на социальный контекст и понимание чужого удивления. LLM генерирует текст по статистическим паттернам — иногда это совпадает с человеческой логикой, иногда нет. Связь между тем, что модель выбирает как контраст, и почему — непоследовательна.

Как явный контраст закрывает пробел. Когда ты пишешь «почему X, а не Y?» — ты устраняешь задачу угадывания. Модели уже не нужно восстанавливать твоё удивление. У неё есть точная формулировка: объясни разницу между X и Y. Это принципиально другой — и гораздо более управляемый — запрос.

Рычаги управления: - Контраст — главный рычаг. Чем точнее называешь альтернативу, тем прицельнее ответ - Контекст удивления — добавь «при том что [ожидал Y]» или «хотя до этого всегда было Y» — это помогает модели понять масштаб и характер отклонения - Число контрастов — можно дать несколько: «почему X, а не Y или Z?» — получишь сравнительный разбор


📋

Шаблон промпта

Почему {событие/результат}, а не {альтернатива, которую я ожидал или с которой сравниваю}?

Контекст: {что происходит, какие данные у тебя есть}

Меня интересует именно эта разница — объясни, что её обусловливает.

Что подставлять: - {событие/результат} — что случилось: падение метрики, решение, поведение, результат - {альтернатива} — то, что ты ожидал или с чем сравниваешь: другой сценарий, другая группа, другой период, другой исход - {контекст} — цифры, детали, ограничения — всё что у тебя есть

Примеры замены: - «Почему конверсия в марте упала, а не в феврале — при одинаковом трафике?» - «Почему клиент выбрал конкурента, а не нас — при более низкой цене с нашей стороны?» - «Почему команда не выполнила план в этом квартале, хотя в прошлом с таким же объёмом справилась?»


🚀 Быстрый старт — вставь в чат:

Помоги мне переформулировать мой вопрос "почему?" — добавь явный контраст, 
чтобы ты ответил именно на то, что меня волнует.

Мой вопрос: [вставь свой вопрос]
Контекст: [что происходит, что тебя удивило]

Предложи 2-3 варианта переформулировки с разными контрастами — 
я выберу нужный и тогда отвечай по нему.

LLM спросит или предложит варианты того, с чем именно ты сравниваешь — потому что без этого не может выбрать направление объяснения. Ты выбираешь нужный контраст → получаешь ответ на правильный вопрос.


⚠️

Ограничения

⚠️ Малые модели: Mistral-7B и Qwen-7B почти не справляются с восстановлением контраста даже при явной подсказке — лучший выбор для сложных «почему?» это GPT-4o/Claude.

⚠️ Множественные контрасты: Если ты сам не знаешь, что тебя удивляет — метод не работает. Нужно сначала понять что именно ты сравниваешь, а потом спрашивать.

⚠️ Бытовые вопросы с единственно возможным контрастом: Для простых вопросов («почему небо голубое?») контраст очевиден — технику применять незачем.


🔗

Ресурсы

Why Someone Asked "Why": Foil Inference in Human and LLM Question Interpretation Britt Besch, Tobias Gerstenberg — Department of Psychology, Stanford University Материалы и данные: github.com/cicl-stanford/why_someone_asked_why_CogSci26

Связанные техники: Contrastive-RAG (Gu et al., 2025), контрастное промптирование (Paranjape et al., 2021; Yao & Yang, 2026)


📋 Дайджест исследования

Ключевая суть

На «почему X?» существует бесконечно много правильных ответов — всё зависит от того, с чем именно ты сравниваешь. LLM выбирает контраст сама. И часто выбирает не тот, который ты имел в виду. Явный контраст позволяет получать точные ответы на аналитические «почему?» — без риска что модель ответит на соседний вопрос. Добавь «а не [альтернатива]» прямо в вопрос: модель перестаёт угадывать и объясняет именно тот разрыв, который тебя беспокоит. «Почему теряем пользователей?» → «почему теряем платящих, а не бесплатных?» — разница между общим советом и точным диагнозом.

Принцип работы

Стандартный подход: спросить «почему?» и надеяться, что модель угадает правильный контраст. Прикол: угадывает она по статистическим паттернам, а не по логике удивления. Люди работают иначе: зная результат, они думают «что вместо этого было бы естественно?» — и именно эта альтернатива становится неявным контрастом вопроса. LLM так не умеет. Поэтому принцип простой: называй альтернативу явно — «почему X, а не Y?». Модель перестаёт гадать и начинает объяснять конкретный разрыв между X и Y.

Почему работает

«Почему уволился Вася?» — это три разных вопроса в одном: почему не остался? почему не Петя? почему именно сейчас? Все три ответа правдивы. Но только один — твой. Называя контраст явно, ты полностью убираешь задачу угадывания. Крупные модели — GPT-4o, Llama-70B — угадывают контраст правильно примерно в половине случаев, и то неустойчиво. Маленькие — Mistral-7B, Qwen-7B — почти никогда. Явный контраст работает для всех и сразу.

Когда применять

Аналитические разборы, ретроспективы, деловые вопросы — для любого «почему?», где тебя беспокоит конкретный разрыв: между группами, периодами, сценариями. Особенно полезно когда нужен диагноз, а не общий совет: почему этот клиент ушёл, а не тот; почему метрика упала в марте, а не в феврале; почему команда не вывезла в этом квартале, хотя в прошлом с тем же объёмом справилась. НЕ подходит для вопросов с единственным очевидным контрастом — «почему вода мокрая?» переформулировать незачем.

Мини-рецепт

1. Найди что тебя удивляет: подумай — что ты ожидал вместо того что случилось? Это и есть твой контраст. Именно его называй явно.
2. Переформулируй вопрос: вставь «а не [альтернатива]» прямо внутрь: Почему A, а не B?
3. Добавь контекст удивления: «при том что раньше всегда было B» или «хотя условия те же» — помогает модели понять масштаб отклонения, а не только его факт.
4. Если сам не знаешь свой контраст: попроси модель предложить варианты: Помоги переформулировать мой вопрос «почему?» — предложи 2-3 варианта с разными контрастами. Мой вопрос: [вопрос]. Контекст: [что произошло, что удивило]. Выбираешь нужный контраст — и только потом получаешь ответ.

Примеры

[ПЛОХО] : Почему наши продажи упали в третьем квартале?
[ХОРОШО] : Почему наши продажи упали в третьем квартале, а у конкурентов выросли — при одинаковом рынке? Контекст: рынок вырос на 12%, мы потеряли 8% по выручке. Объясни именно этот разрыв — не общие причины падения продаж, а то что отличает нашу ситуацию от конкурентов.
Источник: Why Someone Asked "Why": Foil Inference in Human and LLM Question Interpretation
ArXiv ID: 2605.05401 | Сгенерировано: 2026-05-08 05:51

Проблемы LLM

ПроблемаСутьКак обойти
Вопрос «почему?» не имеет одного правильного ответаКогда спрашиваешь «почему X?» — существует бесконечно много верных ответов. Всё зависит от того, с чем сравниваешь. «Почему выручка упала?» — потому что не выросла? Потому что именно в марте, а не феврале? Потому что у нас, а не у конкурентов? Модель выбирает одно направление сама. Ты этого не контролируешь. Модель отвечает на свой вопрос, а не твойНазывай контраст явно. Вместо «почему X?» пиши «почему X, а не Y?». Один шаг — вопрос из размытого становится точным

Методы

МетодСуть
Явный контраст в вопросе — прицельный ответПереформулируй любой вопрос «почему?» по шаблону: Почему {что произошло}, а не {что ожидал или с чем сравниваешь}?. Почему работает: когда контраст задан явно, модели не нужно угадывать твоё удивление. У неё есть точная задача: объяснить разницу между X и Y. Когда применять: аналитика, разборы причин, ретроспективы, сравнение групп или периодов. Когда не нужно: бытовые вопросы с очевидным контрастом («почему небо голубое?»). Если не знаешь свой контраст: попроси модель предложить 2–3 варианта переформулировки — выбери нужный и только потом спрашивай
📖 Простыми словами

Why Someone Asked "Why": Foil Inference in Human andLLMQuestion Interpretation

arXiv: 2605.05401

Когда ты задаешь вопрос «почему?», ты никогда не спрашиваешь о событии в вакууме. В голове у тебя всегда сидит скрытая альтернатива, которую исследователи называют foil (фойл). Мозг работает на контрастах: если ты спрашиваешь, почему кофе холодный, ты на самом деле имеешь в виду «почему он холодный, а не горячий». Проблема в том, что для нейросети этот контекст — черный ящик. Без четкого понимания, с чем именно ты сравниваешь реальность, модель начинает гадать на кофейной гуще, выдавая правильные, но абсолютно бесполезные ответы.

Это похоже на ситуацию, когда ты приходишь к врачу и говоришь: «У меня болит нога». Врач может ответить, что нога болит, потому что в ней есть нервные окончания — и он будет чертовски прав. Но ты-то хотел узнать, почему она болит именно сегодня, хотя вчера ты не падал. Формально ответ верный, но по сути — издевательство. Вы с собеседником просто выбрали разные точки сравнения, и коммуникация развалилась.

В исследовании четко разложили, как это работает: на любой вопрос «почему?» есть десяток правдивых ответов, зависящих от фойла. Возьмем классику: «Почему Вася уволился?». Если твой фойл — «почему не Петя», то ответ про личные качества. Если фойл — «почему сейчас, а не через месяц», то ответ про дедлайны. Если фойл — «почему не остался», то ответ про деньги. LLM лажают, потому что часто выбирают самый очевидный или статистически вероятный фойл, который вообще не совпадает с твоим запросом.

Хотя ученые мучили модели вопросами, этот принцип — фундаментальный закон общения. Он применим везде: от постановки задач подчиненным до написания промптов. Если ты просишь нейросеть проанализировать падение продаж, а она пишет общую чушь про рынок, значит, ты не задал контраст. Нужно уточнять: «почему мы упали, в то время как конкуренты выросли?». Без этого уточнения ты получаешь белый шум вместо аналитики.

Главный вывод прост: хочешь вменяемый ответ от AI — всегда прописывай альтернативу. Не надейся, что машина прочитает твои мысли и поймет, что именно тебя смущает. Либо ты сам задаешь рамки сравнения, либо модель выдумает их за тебя, и результат будет мимо кассы. В мире, где все больше решений принимает AI, умение четко обозначать фойл становится критическим навыком, иначе мы так и будем тонуть в правильных, но бесполезных галлюцинациях.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с