TL;DR
LLM унаследовал ловушки человеческого мышления из данных, на которых обучался — финансовых новостей, дневников инвесторов, форумов. Когда модель анализирует тренды или помогает принять решение, она не нейтральна: она систематически переоценивает недавние события и советует "подержать ещё" убыточные позиции так же, как это делал бы человек. Это не баг конкретной модели — это паттерн, обнаруженный у всех 14 протестированных моделей.
Главная ловушка звучит так: попроси LLM предсказать, продолжится ли рост — она скажет "да", потому что рост шёл последние три периода. Попроси оценить, продавать ли актив в минусе — она будет склоняться к "подержи, отрастёт". Это экстраполятивный прогноз (недавнее = будущее) и диспозиционный эффект (цена входа имеет значение, хотя не должна). Оба эффекта унаследованы от людей и живут в весах модели.
Хорошая новость: исследование показало, что прямые инструкции в промпте подавляют эти эффекты. Явное указание "игнорируй цену входа" или "не давай последним данным больший вес" — каузально меняет поведение модели. Работает и в обратную сторону: специальные промпты могут эти эффекты усилить.
Схема метода
Метод работает в одном промпте — добавляется как блок инструкций перед задачей.
ШАГ 1: ДИАГНОСТИКА → понять, какой тип анализа просишь
(прогноз тренда / решение про убыточный актив / оценка идеи)
ШАГ 2: ДЕАКТИВАЦИЯ ЛОВУШЕК → добавить явные инструкции:
→ против экстраполяции: "не давай последним данным больший вес"
→ против диспозиционного эффекта: "игнорируй цену входа, сделки,
всё что было потрачено ранее — это нерелевантно"
ШАГ 3: ЗАПРОС ФУНДАМЕНТАЛЬНОГО АНАЛИЗА → попросить обосновать
через объективные показатели, а не историю движения
Пример применения
Задача: Ты потратил 300 000 рублей на запуск Telegram-канала и рекламу. Три месяца подряд охваты падали. Сейчас советуешься с Claude — закрывать канал или нет.
Без деконтаминации: Claude скорее всего будет тянуть к "ещё немного, возможно скоро пойдёт вверх" — потому что триста тысяч потрачено, это давит на рекомендацию. Это диспозиционный эффект в чистом виде.
Промпт с деконтаминацией:
Помоги мне принять объективное решение по Telegram-каналу.
Важные инструкции перед анализом:
1. Всё, что было потрачено до этого момента (деньги, время, силы) —
нерелевантно для решения. Это невозвратные затраты.
Не давай им веса в своих рекомендациях.
2. Три месяца падения охватов — это один из сигналов, но не приговор
и не гарантия будущего. Не экстраполируй тренд автоматически.
3. Оценивай только текущее состояние и будущий потенциал.
Контекст:
- Тема канала: [твоя тема]
- Текущая аудитория: [X подписчиков]
- Динамика охватов: [конкретные цифры]
- Монетизационная модель: [как планировал зарабатывать]
- Твои ресурсы: [сколько можешь ещё вложить / сколько времени]
Вопрос: закрыть, продать, перезапустить или продолжить?
Обоснуй через потенциал, а не через историю вложений.
Результат: Модель даст анализ, отделённый от "эффекта тонущих затрат". Аргументы будут строиться вокруг рыночного потенциала темы, монетизации и ресурсов — а не вокруг "ты уже столько вложил". Вероятно, ответ будет более жёстким и честным, чем без инструкций.
Почему это работает
LLM обучена на человеческих текстах — а люди в своих текстах систематически говорят "цена купилась за 100, сейчас 80, надо подождать" и "рынок три месяца растёт, значит и дальше будет расти". Модель видела миллионы таких паттернов и усвоила их как стандартное рассуждение.
Ключевой механизм: модель не анализирует "правильно" по умолчанию — она предсказывает следующий токен в стиле типичного человеческого рассуждения. А типичное человеческое рассуждение предвзято. Исследование показало: у всех проверенных моделей коэффициент влияния недавних данных на прогноз был статистически значимо выше, чем у более давних. Недавнее буквально весит больше.
Почему явные инструкции помогают: когда ты прямо говоришь "игнорируй X" — ты создаёшь в контексте конкурирующий паттерн. Модель начинает следовать инструкции, а не шаблону из обучения. Это не 100% надёжно, но исследование показало каузальный эффект: правильные промпты реально меняли поведение агентов в измеримую сторону.
Рычаги управления: - "Невозвратные затраты нерелевантны" → отключает диспозиционный эффект - "Взвешивай данные за все периоды равномерно" → снижает рекуррентный перевес - "Обоснуй только через фундаментальные показатели" → переключает с экстраполяции на анализ - Можно добавить противоположные инструкции → если нужен "взгляд моментума" специально
Шаблон промпта
Помоги принять объективное решение по {задача}.
Правила анализа — строго соблюдай:
1. Невозвратные затраты (потраченные деньги, время, усилия) —
нерелевантны. Не учитывай их в рекомендации.
2. Недавние события ({последний период}) — не имеют автоматически
больший вес, чем более ранние. Не экстраполируй тренд.
3. Опирайся на фундаментальные показатели, а не на историю движения.
Контекст:
{описание ситуации с конкретными данными}
Вопрос: {конкретный вопрос решения}
Дай структурированный ответ: аргументы за, аргументы против,
рекомендация и почему.
Что подставлять:
- {задача} — предмет решения: проект, инвестиция, кампания, продукт
- {последний период} — конкретизируй: "последние 2 недели", "последний квартал"
- {описание ситуации} — цифры, факты, ресурсы, контекст рынка
- {конкретный вопрос} — "продолжать или закрыть", "докупать или продать", "масштабировать или нет"
🚀 Быстрый старт — вставь в чат:
Вот шаблон для объективного анализа решений без когнитивных ловушек.
Адаптируй под мою задачу: [твоя ситуация].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про контекст ситуации, конкретные данные и какое именно решение нужно принять — потому что без этого не сможет правильно применить правила анализа к твоей задаче.
Ограничения
⚠️ Частичное подавление, не полное: Явные инструкции снижают предвзятость, но не устраняют её полностью. Особенно при длинных диалогах — на 15-20 ходу инструкции из начала могут "размываться".
⚠️ Субъективные решения: Метод лучше работает там, где есть объективные данные (числа, показатели). В оценке "хорошая ли идея" без цифр — эффект слабее.
⚠️ Модели различаются по степени предвзятости: Одни модели сильнее поддаются коррекции через промпт, другие — слабее. Конкретные названия из исследования не публикуются в фокусе этой части.
⚠️ Обратные инструкции тоже работают: Если случайно написать "учитывай, что уже столько вложено" — усилишь предвзятость. Формулировки имеют значение.
Как исследовали
Исследователи из Оксфорда и CUHK создали виртуальный финансовый рынок — полную симуляцию биржевого аукциона по классической схеме Smith et al. (1988), только вместо людей торговали 14 разных LLM-агентов. Каждый агент получал рыночные данные, формулировал прогнозы цен и выставлял ордера. При этом каждый раунд агент обновлял два текстовых файла: PLANS.txt (стратегия вперёд) и INSIGHTS.txt (рефлексия о прошлых ошибках). Это позволило исследователям читать "мысли" агентов дословно.
Что оказалось неожиданным: AI-агенты вели себя точнее, чем люди в аналогичных экспериментах. У людей есть разрыв между "я думаю, что акция вырастет" и "я покупаю" — лень, инерция, транзакционные издержки. У AI-агентов этого разрыва практически нет: что сказал — то и сделал. Это значит, что предвзятости работают чище и мощнее, чем у людей.
Самое важное: в финале исследователи запускали таргетированные промпты — одни подавляли конкретные предубеждения, другие усиливали. Результат был каузальным и измеримым: пузыри на рынке менялись по величине в зависимости от типа промпта. Это прямое доказательство того, что промпт-интервенции работают как рычаг управления поведением модели.
Адаптации и экстраполяции
Аудит рассуждений LLM
Исследование использовало систему из 20 механизмов для анализа текста агентов — чтобы понять, почему агент принял решение. Принцип можно использовать вручную.
🔧 Техника: попроси модель обнажить механизм решения
После любого аналитического ответа добавь:
Теперь выпиши, что именно повлияло на твою рекомендацию:
- Какие данные ты взял как основу?
- Каким данным ты дал больший вес и почему?
- Какие альтернативные выводы ты отбросил?
- Есть ли в твоём рассуждении что-то, что похоже на
"последнее важнее давнего" или "что потрачено — надо отбить"?
Модель начнёт самодиагностику. Часто находит собственные предвзятости явно.
🔧 Техника: включи "оппонента с иной историей"
Если видишь риск рекуррентного перевеса:
Проанализируй этот же вопрос дважды:
1. С точки зрения того, кто видит только данные за последние
[X недель/месяцев]
2. С точки зрения того, кто видит только данные за весь
доступный период но без последних [X]
Сравни выводы. Если они расходятся — объясни почему
и какой анализ более обоснован.
Это экстраполяция принципа смешанных рынков из исследования — когда агенты с разными "историями памяти" торговали вместе.
Ресурсы
Dissecting AI Trading: Behavioral Finance and Market Bubbles — Shumiao Ouyang (Saïd Business School, University of Oxford), Pengfei Sui (School of Management and Economics, CUHK Shenzhen). Апрель 2026.
Ключевые отсылки из исследования: Smith, Suchanek & Williams (1988) — классический эксперимент с пузырями; Shefrin & Statman (1985), Odean (1998) — диспозиционный эффект; Greenwood & Shleifer (2014) — экстраполятивные ожидания.
