TL;DR
Когда просишь LLM помочь с переговорами, конкурентной стратегией или любым решением с конфликтующими интересами — модель, скорее всего, воспроизводит заученный шаблон, а не думает о твоей конкретной ситуации. Исследователи проверили это через игры с изменёнными правилами: взяли "Дилемму заключённого" и "Камень-ножницы-бумага" и поменяли либо названия действий, либо структуру выплат. Оба изменения ломали привычный сценарий — и стало ясно, отвечает ли модель по логике или по памяти.
Главная находка: LLM ориентируется на знакомые метки ("сотрудничество", "предательство", "рок", "ножницы"), а не на реальную структуру стимулов. Смени названия — и слабые модели теряются, хотя математика задачи не изменилась. Смени сами выплаты — и даже сильные модели адаптируются медленно и неполно. Это не баг конкретной модели — это системная черта: модели обучены на текстах, где "сотрудничество" обычно означает одно и то же. Нет знакомого слова — нет и готового ответа.
Практический вывод: если хочешь, чтобы LLM рассуждала о твоей стратегической ситуации, а не выдавала книжный ответ, — убери знакомые ярлыки и опиши задачу через явную структуру последствий. Тогда модели придётся считать, а не вспоминать.
Схема метода
ШАГ 1: Опиши ситуацию БЕЗ знакомых категорий ("переговоры", "конкуренция")
→ вместо меток — конкретные последствия каждого варианта
ШАГ 2: Задай структуру явно
→ "если я делаю X и они делают Y — происходит Z"
→ "если я делаю X и они делают W — происходит V"
ШАГ 3: Попроси разобрать логику, а не дать совет
→ "что рационально при этой структуре?"
→ "какое решение доминирует вне зависимости от их хода?"
Все три шага — в одном промпте.
Пример применения
Задача: Ты ведёшь переговоры с поставщиком по ВБ (Wildberries). Он может опустить цену или удержать. Ты можешь уйти к другому или остаться. Хочешь понять стратегию — но не хочешь получить банальный совет "будьте гибкими".
Промпт:
Есть ситуация с двумя участниками, назовём их А (я) и Б (поставщик).
У каждого два варианта действий.
Последствия:
— А соглашается, Б снижает цену: А получает выгодный контракт (+8), Б теряет маржу (+3)
— А соглашается, Б держит цену: А переплачивает (+2), Б сохраняет маржу (+7)
— А уходит, Б снижает цену: А находит нового поставщика (+5), Б теряет клиента (+2)
— А уходит, Б держит цену: А ищет нового (+5), Б ничего не теряет (+5)
Это разовая встреча — повторных раундов нет.
Вопросы:
1. Какой вариант доминирует для каждого участника при любом ходе другого?
2. К какому исходу придёт рациональная пара игроков?
3. Что меняется, если это не разовая встреча, а долгосрочное сотрудничество?
Результат: Модель не скатится в общие советы о переговорах. Она разберёт матрицу последствий: покажет, есть ли доминирующая стратегия (та, что выгодна независимо от хода другого), объяснит логику равновесия в разовой и повторяющейся ситуации. Разница между "один раз" и "долгосрок" будет чёткой — потому что она выводится из структуры, а не из общих принципов.
Почему это работает
LLM — это не калькулятор стратегий, а очень умный читатель. Модель видела миллионы текстов, где слово "переговоры" появлялось рядом с конкретными советами. Когда ты пишешь "помоги с переговорами" — она активирует этот пласт текстов и воспроизводит типовой совет. Это быстро и часто неплохо. Но это не анализ твоей ситуации.
Сильная сторона LLM — следовать explicit логике, когда она прописана явно. Если ты даёшь числа и спрашиваешь "что рационально" — модель работает с тем, что ты написал, а не с тем, что она "помнит" про похожие ситуации. Структура вытесняет шаблон.
Рычаги управления: - Убери привычные слова ("сотрудничество", "конкуренция", "переговоры") — нет слова, нет шаблона - Добавь числовые последствия — даже примерные ("выиграл / проиграл / ничья" или "+10 / -3 / +5") — это якорь для рассуждений - Задай горизонт ("разовая встреча" или "30 раундов") — это принципиально меняет рациональную стратегию, и модель это учтёт при явном указании - Не проси совет — проси анализ структуры: "что доминирует?" вместо "что мне делать?"
Шаблон промпта
Есть ситуация с двумя участниками: {участник_А} и {участник_Б}.
У каждого два варианта действий: {варианты_А} и {варианты_Б}.
Последствия при каждой комбинации:
— {А_вариант_1} + {Б_вариант_1}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_1} + {Б_вариант_2}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_2} + {Б_вариант_1}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_2} + {Б_вариант_2}: {последствие_для_А} / {последствие_для_Б}
Горизонт: {разовое_взаимодействие / повторяется_N_раз}.
Разбери:
1. Есть ли доминирующая стратегия для каждого участника?
2. К какому исходу придут рациональные участники?
3. Что меняется при {горизонт_2} — например, если взаимодействие повторяется?
Что подставлять:
- {участник_А} / {участник_Б} — кто принимает решение (можно "я" и "конкурент")
- {варианты} — конкретные действия, лучше без эмоциональной окраски
- {последствие} — числа или описание ("теряет клиента", "сохраняет маржу", "+7")
- {горизонт} — разовая ситуация или долгосрочная
🚀 Быстрый старт — вставь в чат:
Вот шаблон для анализа стратегической ситуации через структуру последствий.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про участников, варианты их действий и последствия каждой комбинации — потому что без этого структура стимулов неопределена, а именно она нужна для анализа вместо шаблонного совета.
Почему сильные модели иногда хуже
Один из самых неожиданных результатов: модели с расширенным "мышлением" (Claude 4 с thinking, DeepSeek R1) чаще дефектируют в ситуациях, где сотрудничество взаимовыгодно. Они "умнее" просчитывают краткосрочную выгоду — и выбирают её в ущерб коллективному результату.
Практический вывод: если задача требует найти взаимовыгодное решение (переговоры, партнёрство, компромисс) — более продвинутая модель с deep thinking может давать парадоксально худший совет. Она "предаёт" там, где надо договариваться.
Когда нужен кооперативный исход — явно поставь это как цель: не "что мне делать" (модель оптимизирует под себя), а "как прийти к исходу, который хорош для обеих сторон".
Ограничения
⚠️ Не техника, а принцип: Исследование описывает механику сбоя, а не готовый метод. Шаблон выше — сконструированное следствие, а не протестированный промпт из статьи.
⚠️ Числа — условные: Если реальных цифр нет, придётся оценивать последствия субъективно. Это лучше, чем ничего, но точность анализа зависит от качества твоих оценок.
⚠️ Работает для структурируемых решений: Метод полезен там, где есть чёткие участники, чёткие варианты и понятные последствия. Для размытых, творческих или эмоциональных решений — меньше применим.
⚠️ Не лечит полностью: Даже при явной структуре стимулов сильные модели адаптируются к изменённым условиям медленно и неравномерно. Метод улучшает рассуждение, но не гарантирует оптимальный анализ.
Как исследовали
Исследователи взяли две классические игры — "Дилемму заключённого" (PD) и "Камень-ножницы-бумага" (RPS) — и создали для каждой контрфактические версии: одни меняли только названия действий (не трогая цифры), другие меняли сами выплаты (превращая дилемму в задачу на координацию). Затем заставили несколько LLM сыграть против алгоритмических противников и друг против друга — по 16 раундов в PD и 24 в RPS, повторяя каждую игру по 5 раз.
Интереснее всего оказалась разница между двумя типами изменений. Смена ярлыков без изменения стимулов ("сотрудничество" → "охота на оленя") почти не сбивала сильные модели — но серьёзно дестабилизировала слабые. Смена самих стимулов (изменение математики выплат) оказалась куда более жёстким тестом: модели адаптировались медленнее и с большей вариативностью. Это говорит о том, что поверхностное переименование — не настоящая проверка мышления, а вот пересчёт логики — да.
Ещё одна неожиданность: Claude 3.5 и Llama 3.3 набирали максимальные очки в режиме LLM vs LLM, потому что быстро выходили на взаимное сотрудничество. Claude 4 и DeepSeek R1 — нет. Они продолжали "предавать", явно просчитывая личную выгоду. Исследователи предположили, что усиление reasoning-способностей делает модели рационально эгоистичными — и это не всегда хорошо.
Адаптации и экстраполяции
🔧 Техника: провокация через контрфактив → обнажение скрытых допущений
Если LLM даёт слишком стандартный совет по бизнес-решению, можно специально сломать привычную рамку через контрфактив — и посмотреть, что останется:
Оригинальный запрос: "Стоит ли запускать подписку?"
Контрфактивный: "Представь, что подписка в этой нише почти всегда убыточна для запускающего, но очень удобна для пользователей. При этом альтернатива — разовые покупки — стабильно прибыльна, но требует постоянного трафика. Какой выбор логичен при таких условиях?"
Если ответ кардинально меняется — модель в первый раз работала по шаблону "подписки = хорошо", а не анализировала конкретику. Это диагностика, а не просто другой вопрос.
🔧 Экстраполяция: проверка качества любого LLM-совета
Перед тем как следовать стратегическому совету от LLM, можно запустить быстрый тест:
Ты только что посоветовал {совет}.
Теперь инвертируй условия: предположи, что {ключевое допущение в совете} — неверно.
При этом новом условии — меняется ли совет? Если да — как?
Если совет держится при изменённых условиях — он, скорее, выведен из логики. Если разваливается — скорее всего, был шаблонным.
Ресурсы
Evaluating Counterfactual Strategic Reasoning in Large Language Models
Авторы: Dimitrios Georgousis, Maria Lymperaiou, Angeliki Dimitriou, Giorgos Filandrianos, Giorgos Stamou
National Technical University of Athens
Код: github.com/dimjimitris/llm_gm_thesis
Связанные концепции: Nash equilibrium, Prisoner's Dilemma, Stag Hunt, Chain-of-Thought prompting, Self-Consistency (Wang et al., 2023), Solo Performance Prompting (Wang et al., 2024)
