TL;DR
Когда ты спрашиваешь «почему?», LLM должна угадать, с чем ты мысленно сравниваешь. Вопрос «Почему продажи упали?» можно понять как минимум двумя способами: «почему упали, а не выросли?» или «почему мы упали, а конкуренты нет?» — это совершенно разные вопросы, требующие совершенно разных ответов. Этот неявный контраст называется foil (фойл — альтернатива, которую спрашивающий держит в голове).
Люди восстанавливают фойл через ретроспективное ожидание: после того как узнали что произошло, они думают «что вместо этого могло бы случиться?» — и именно эта альтернатива становится неявным контрастом вопроса. LLM делают это непоследовательно: крупные модели (GPT, Llama-70B) частично угадывают правильно, маленькие (Mistral-7B, Qwen-7B) — почти никогда.
Вывод для практики: LLM не знает, что именно тебя удивило. Если не сказать явно — она ответит на соседний вопрос. Решение: всегда называй контраст прямо — «почему X, а не Y?» вместо «почему X?».
Схема метода
БЫЛО: "Почему X?" — LLM угадывает контраст (часто ошибается)
СТАЛО: "Почему X, а не Y?" — контраст задан явно, ответ прицельный
ФОРМУЛА ПЕРЕФОРМУЛИРОВКИ:
Шаблон "Почему [событие]?"
→ "Почему [событие], а не [альтернатива, которую ты держишь в голове]?"
Один запрос, без дополнительных шагов.
Пример применения
Задача: Разбор провала продукта на совещании. Нужно понять причины — и сделать правильные выводы, а не общие.
Промпт без контраста (рискованный):
Почему наше приложение теряет пользователей?
Модель ответит на свой вопрос — например, объяснит, почему теряет вместо «удерживает». Но ты, возможно, хотел понять другое: почему теряете именно к Авито/Ozon, а не к NoName-конкурентам. Или почему уходят именно платящие, а не бесплатные. LLM не знает.
Промпт с явным контрастом:
Почему наше приложение теряет платящих пользователей, а не бесплатных?
Контекст: у нас freemium-модель, отток среди платных вырос на 30%
за квартал, среди бесплатных — не изменился. Объясни,
что именно в этой разнице — ключ к проблеме.
Результат: Модель сфокусируется именно на том разрыве, который тебя беспокоит: платные vs бесплатные пользователи. Ответ будет про ценность платного тарифа, восприятие цены, конкурентные предложения — а не про UX в целом или онбординг новых юзеров.
Почему это работает
Почему вопрос без контраста даёт размытый ответ. На любой вопрос «почему?» существует бесконечно много корректных ответов — в зависимости от того, с чем сравниваешь. «Почему Вася уволился?» — потому что нашёл лучшую зарплату (vs остаться), потому что не Петя уволился первым (vs кто-то другой), потому что сейчас, а не год назад (vs другое время). Все три ответа правдивы, но только один отвечает на твой вопрос.
Почему LLM не угадывает так же хорошо, как человек. Человек инферирует контраст через ретроспективное ожидание: зная результат, он думает «что вместо этого было бы естественно?» — и это подсказывает ему альтернативу. Этот процесс опирается на социальный контекст и понимание чужого удивления. LLM генерирует текст по статистическим паттернам — иногда это совпадает с человеческой логикой, иногда нет. Связь между тем, что модель выбирает как контраст, и почему — непоследовательна.
Как явный контраст закрывает пробел. Когда ты пишешь «почему X, а не Y?» — ты устраняешь задачу угадывания. Модели уже не нужно восстанавливать твоё удивление. У неё есть точная формулировка: объясни разницу между X и Y. Это принципиально другой — и гораздо более управляемый — запрос.
Рычаги управления: - Контраст — главный рычаг. Чем точнее называешь альтернативу, тем прицельнее ответ - Контекст удивления — добавь «при том что [ожидал Y]» или «хотя до этого всегда было Y» — это помогает модели понять масштаб и характер отклонения - Число контрастов — можно дать несколько: «почему X, а не Y или Z?» — получишь сравнительный разбор
Шаблон промпта
Почему {событие/результат}, а не {альтернатива, которую я ожидал или с которой сравниваю}?
Контекст: {что происходит, какие данные у тебя есть}
Меня интересует именно эта разница — объясни, что её обусловливает.
Что подставлять:
- {событие/результат} — что случилось: падение метрики, решение, поведение, результат
- {альтернатива} — то, что ты ожидал или с чем сравниваешь: другой сценарий, другая группа, другой период, другой исход
- {контекст} — цифры, детали, ограничения — всё что у тебя есть
Примеры замены: - «Почему конверсия в марте упала, а не в феврале — при одинаковом трафике?» - «Почему клиент выбрал конкурента, а не нас — при более низкой цене с нашей стороны?» - «Почему команда не выполнила план в этом квартале, хотя в прошлом с таким же объёмом справилась?»
🚀 Быстрый старт — вставь в чат:
Помоги мне переформулировать мой вопрос "почему?" — добавь явный контраст,
чтобы ты ответил именно на то, что меня волнует.
Мой вопрос: [вставь свой вопрос]
Контекст: [что происходит, что тебя удивило]
Предложи 2-3 варианта переформулировки с разными контрастами —
я выберу нужный и тогда отвечай по нему.
LLM спросит или предложит варианты того, с чем именно ты сравниваешь — потому что без этого не может выбрать направление объяснения. Ты выбираешь нужный контраст → получаешь ответ на правильный вопрос.
Ограничения
⚠️ Малые модели: Mistral-7B и Qwen-7B почти не справляются с восстановлением контраста даже при явной подсказке — лучший выбор для сложных «почему?» это GPT-4o/Claude.
⚠️ Множественные контрасты: Если ты сам не знаешь, что тебя удивляет — метод не работает. Нужно сначала понять что именно ты сравниваешь, а потом спрашивать.
⚠️ Бытовые вопросы с единственно возможным контрастом: Для простых вопросов («почему небо голубое?») контраст очевиден — технику применять незачем.
Ресурсы
Why Someone Asked "Why": Foil Inference in Human and LLM Question Interpretation Britt Besch, Tobias Gerstenberg — Department of Psychology, Stanford University Материалы и данные: github.com/cicl-stanford/why_someone_asked_why_CogSci26
Связанные техники: Contrastive-RAG (Gu et al., 2025), контрастное промптирование (Paranjape et al., 2021; Yao & Yang, 2026)
