3,583 papers
arXiv:2603.19167 74 19 мар. 2026 г. FREE

LLM-стратег или автоответчик: как модели выдают шаблоны вместо стратегии — и как это исправить

КЛЮЧЕВАЯ СУТЬ
Парадокс: модели с расширенным анализом — Claude 4 с thinking, DeepSeek R1 — в кооперативных сценариях 'предают' чаще, чем более слабые модели. Слишком хорошо считают краткосрочную выгоду — и берут её вместо взаимовыгодного исхода. Метод позволяет получить анализ твоей конкретной ситуации — не книжный совет про переговоры или конкуренцию. Убери знакомые слова — 'сотрудничество', 'конкуренция', 'переговоры' — и замени их матрицей последствий. Нет знакомого слова — нет заученного ответа. Есть числа — модель считает, а не вспоминает. Это меняет качество анализа принципиально.
Адаптировать под запрос

TL;DR

Когда просишь LLM помочь с переговорами, конкурентной стратегией или любым решением с конфликтующими интересами — модель, скорее всего, воспроизводит заученный шаблон, а не думает о твоей конкретной ситуации. Исследователи проверили это через игры с изменёнными правилами: взяли "Дилемму заключённого" и "Камень-ножницы-бумага" и поменяли либо названия действий, либо структуру выплат. Оба изменения ломали привычный сценарий — и стало ясно, отвечает ли модель по логике или по памяти.

Главная находка: LLM ориентируется на знакомые метки ("сотрудничество", "предательство", "рок", "ножницы"), а не на реальную структуру стимулов. Смени названия — и слабые модели теряются, хотя математика задачи не изменилась. Смени сами выплаты — и даже сильные модели адаптируются медленно и неполно. Это не баг конкретной модели — это системная черта: модели обучены на текстах, где "сотрудничество" обычно означает одно и то же. Нет знакомого слова — нет и готового ответа.

Практический вывод: если хочешь, чтобы LLM рассуждала о твоей стратегической ситуации, а не выдавала книжный ответ, — убери знакомые ярлыки и опиши задачу через явную структуру последствий. Тогда модели придётся считать, а не вспоминать.


🔬

Схема метода

ШАГ 1: Опиши ситуацию БЕЗ знакомых категорий ("переговоры", "конкуренция")
        → вместо меток — конкретные последствия каждого варианта

ШАГ 2: Задай структуру явно
        → "если я делаю X и они делают Y — происходит Z"
        → "если я делаю X и они делают W — происходит V"

ШАГ 3: Попроси разобрать логику, а не дать совет
        → "что рационально при этой структуре?"
        → "какое решение доминирует вне зависимости от их хода?"

Все три шага — в одном промпте.

🚀

Пример применения

Задача: Ты ведёшь переговоры с поставщиком по ВБ (Wildberries). Он может опустить цену или удержать. Ты можешь уйти к другому или остаться. Хочешь понять стратегию — но не хочешь получить банальный совет "будьте гибкими".

Промпт:

Есть ситуация с двумя участниками, назовём их А (я) и Б (поставщик).
У каждого два варианта действий.

Последствия:
— А соглашается, Б снижает цену: А получает выгодный контракт (+8), Б теряет маржу (+3)
— А соглашается, Б держит цену: А переплачивает (+2), Б сохраняет маржу (+7)
— А уходит, Б снижает цену: А находит нового поставщика (+5), Б теряет клиента (+2)
— А уходит, Б держит цену: А ищет нового (+5), Б ничего не теряет (+5)

Это разовая встреча — повторных раундов нет.

Вопросы:
1. Какой вариант доминирует для каждого участника при любом ходе другого?
2. К какому исходу придёт рациональная пара игроков?
3. Что меняется, если это не разовая встреча, а долгосрочное сотрудничество?

Результат: Модель не скатится в общие советы о переговорах. Она разберёт матрицу последствий: покажет, есть ли доминирующая стратегия (та, что выгодна независимо от хода другого), объяснит логику равновесия в разовой и повторяющейся ситуации. Разница между "один раз" и "долгосрок" будет чёткой — потому что она выводится из структуры, а не из общих принципов.


🧠

Почему это работает

LLM — это не калькулятор стратегий, а очень умный читатель. Модель видела миллионы текстов, где слово "переговоры" появлялось рядом с конкретными советами. Когда ты пишешь "помоги с переговорами" — она активирует этот пласт текстов и воспроизводит типовой совет. Это быстро и часто неплохо. Но это не анализ твоей ситуации.

Сильная сторона LLM — следовать explicit логике, когда она прописана явно. Если ты даёшь числа и спрашиваешь "что рационально" — модель работает с тем, что ты написал, а не с тем, что она "помнит" про похожие ситуации. Структура вытесняет шаблон.

Рычаги управления: - Убери привычные слова ("сотрудничество", "конкуренция", "переговоры") — нет слова, нет шаблона - Добавь числовые последствия — даже примерные ("выиграл / проиграл / ничья" или "+10 / -3 / +5") — это якорь для рассуждений - Задай горизонт ("разовая встреча" или "30 раундов") — это принципиально меняет рациональную стратегию, и модель это учтёт при явном указании - Не проси совет — проси анализ структуры: "что доминирует?" вместо "что мне делать?"


📋

Шаблон промпта

Есть ситуация с двумя участниками: {участник_А} и {участник_Б}.
У каждого два варианта действий: {варианты_А} и {варианты_Б}.

Последствия при каждой комбинации:
— {А_вариант_1} + {Б_вариант_1}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_1} + {Б_вариант_2}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_2} + {Б_вариант_1}: {последствие_для_А} / {последствие_для_Б}
— {А_вариант_2} + {Б_вариант_2}: {последствие_для_А} / {последствие_для_Б}

Горизонт: {разовое_взаимодействие / повторяется_N_раз}.

Разбери:
1. Есть ли доминирующая стратегия для каждого участника?
2. К какому исходу придут рациональные участники?
3. Что меняется при {горизонт_2} — например, если взаимодействие повторяется?

Что подставлять: - {участник_А} / {участник_Б} — кто принимает решение (можно "я" и "конкурент") - {варианты} — конкретные действия, лучше без эмоциональной окраски - {последствие} — числа или описание ("теряет клиента", "сохраняет маржу", "+7") - {горизонт} — разовая ситуация или долгосрочная


🚀 Быстрый старт — вставь в чат:

Вот шаблон для анализа стратегической ситуации через структуру последствий.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про участников, варианты их действий и последствия каждой комбинации — потому что без этого структура стимулов неопределена, а именно она нужна для анализа вместо шаблонного совета.


📌

Почему сильные модели иногда хуже

Один из самых неожиданных результатов: модели с расширенным "мышлением" (Claude 4 с thinking, DeepSeek R1) чаще дефектируют в ситуациях, где сотрудничество взаимовыгодно. Они "умнее" просчитывают краткосрочную выгоду — и выбирают её в ущерб коллективному результату.

Практический вывод: если задача требует найти взаимовыгодное решение (переговоры, партнёрство, компромисс) — более продвинутая модель с deep thinking может давать парадоксально худший совет. Она "предаёт" там, где надо договариваться.

Когда нужен кооперативный исход — явно поставь это как цель: не "что мне делать" (модель оптимизирует под себя), а "как прийти к исходу, который хорош для обеих сторон".


⚠️

Ограничения

⚠️ Не техника, а принцип: Исследование описывает механику сбоя, а не готовый метод. Шаблон выше — сконструированное следствие, а не протестированный промпт из статьи.

⚠️ Числа — условные: Если реальных цифр нет, придётся оценивать последствия субъективно. Это лучше, чем ничего, но точность анализа зависит от качества твоих оценок.

⚠️ Работает для структурируемых решений: Метод полезен там, где есть чёткие участники, чёткие варианты и понятные последствия. Для размытых, творческих или эмоциональных решений — меньше применим.

⚠️ Не лечит полностью: Даже при явной структуре стимулов сильные модели адаптируются к изменённым условиям медленно и неравномерно. Метод улучшает рассуждение, но не гарантирует оптимальный анализ.


🔍

Как исследовали

Исследователи взяли две классические игры — "Дилемму заключённого" (PD) и "Камень-ножницы-бумага" (RPS) — и создали для каждой контрфактические версии: одни меняли только названия действий (не трогая цифры), другие меняли сами выплаты (превращая дилемму в задачу на координацию). Затем заставили несколько LLM сыграть против алгоритмических противников и друг против друга — по 16 раундов в PD и 24 в RPS, повторяя каждую игру по 5 раз.

Интереснее всего оказалась разница между двумя типами изменений. Смена ярлыков без изменения стимулов ("сотрудничество" → "охота на оленя") почти не сбивала сильные модели — но серьёзно дестабилизировала слабые. Смена самих стимулов (изменение математики выплат) оказалась куда более жёстким тестом: модели адаптировались медленнее и с большей вариативностью. Это говорит о том, что поверхностное переименование — не настоящая проверка мышления, а вот пересчёт логики — да.

Ещё одна неожиданность: Claude 3.5 и Llama 3.3 набирали максимальные очки в режиме LLM vs LLM, потому что быстро выходили на взаимное сотрудничество. Claude 4 и DeepSeek R1 — нет. Они продолжали "предавать", явно просчитывая личную выгоду. Исследователи предположили, что усиление reasoning-способностей делает модели рационально эгоистичными — и это не всегда хорошо.


💡

Адаптации и экстраполяции

📌

🔧 Техника: провокация через контрфактив → обнажение скрытых допущений

Если LLM даёт слишком стандартный совет по бизнес-решению, можно специально сломать привычную рамку через контрфактив — и посмотреть, что останется:

Оригинальный запрос: "Стоит ли запускать подписку?"

Контрфактивный: "Представь, что подписка в этой нише почти всегда убыточна для запускающего, но очень удобна для пользователей. При этом альтернатива — разовые покупки — стабильно прибыльна, но требует постоянного трафика. Какой выбор логичен при таких условиях?"

Если ответ кардинально меняется — модель в первый раз работала по шаблону "подписки = хорошо", а не анализировала конкретику. Это диагностика, а не просто другой вопрос.


📌

🔧 Экстраполяция: проверка качества любого LLM-совета

Перед тем как следовать стратегическому совету от LLM, можно запустить быстрый тест:

Ты только что посоветовал {совет}.
Теперь инвертируй условия: предположи, что {ключевое допущение в совете} — неверно.
При этом новом условии — меняется ли совет? Если да — как?

Если совет держится при изменённых условиях — он, скорее, выведен из логики. Если разваливается — скорее всего, был шаблонным.


🔗

Ресурсы

Evaluating Counterfactual Strategic Reasoning in Large Language Models

Авторы: Dimitrios Georgousis, Maria Lymperaiou, Angeliki Dimitriou, Giorgos Filandrianos, Giorgos Stamou

National Technical University of Athens

Код: github.com/dimjimitris/llm_gm_thesis

Связанные концепции: Nash equilibrium, Prisoner's Dilemma, Stag Hunt, Chain-of-Thought prompting, Self-Consistency (Wang et al., 2023), Solo Performance Prompting (Wang et al., 2024)


📋 Дайджест исследования

Ключевая суть

Парадокс: модели с расширенным анализом — Claude 4 с thinking, DeepSeek R1 — в кооперативных сценариях 'предают' чаще, чем более слабые модели. Слишком хорошо считают краткосрочную выгоду — и берут её вместо взаимовыгодного исхода. Метод позволяет получить анализ твоей конкретной ситуации — не книжный совет про переговоры или конкуренцию. Убери знакомые слова — 'сотрудничество', 'конкуренция', 'переговоры' — и замени их матрицей последствий. Нет знакомого слова — нет заученного ответа. Есть числа — модель считает, а не вспоминает. Это меняет качество анализа принципиально.

Принцип работы

LLM — очень умный читатель, не калькулятор стратегий. Обучена на миллионах текстов, где 'сотрудничество' появляется рядом с конкретными советами. Ты пишешь 'помоги с переговорами' — она активирует этот пласт и воспроизводит типовой совет. Быстро. Иногда неплохо. Но не твоя ситуация. Фишка: знакомое слово — это триггер для кэшированного ответа. Уберёшь слово — уберёшь шаблон. Добавишь матрицу последствий — модель работает с тем, что ты написал, а не с тем, что помнит. Исследователи проверили это через игры с изменёнными правилами: взяли 'Дилемму заключённого' и 'Камень-ножницы-бумагу', поменяли либо названия действий, либо структуру выплат. Смени названия — слабые модели теряются, хотя математика не изменилась. Смени выплаты — даже сильные адаптируются медленно и неполно.

Почему работает

Модель не выводит стратегию из принципов — она ищет похожий паттерн в том, на чём обучена. Слова-ярлыки — это ключ к архиву готовых ответов. Числа и явные последствия — якорь для рассуждения из структуры. Нет знакомого триггера — нет кэшированного ответа. Есть матрица — есть рассуждение. И жесть — модели с расширенным анализом дефектируют чаще слабых. Они слишком хорошо просчитывают краткосрочную выгоду и берут её там, где надо договариваться. Если нужен кооперативный исход — прямо ставь это целью: не 'что мне делать', а 'как прийти к исходу, который хорош для обеих сторон'.

Когда применять

Переговоры, конкурентная стратегия, партнёрские решения, тендеры — любая ситуация с чёткими участниками, чёткими вариантами действий и понятными последствиями. Горизонт важен: разовая встреча и долгосрочное сотрудничество дают принципиально разные рациональные стратегии — модель это учтёт, если скажешь явно. НЕ подходит для размытых творческих задач и эмоциональных решений без чёткой структуры участников.

Мини-рецепт

1. Убери ярлыки: не 'переговоры с поставщиком', а 'участник А и участник Б, каждый выбирает из двух вариантов'. Никаких эмоционально окрашенных слов — 'сотрудничество', 'конкуренция', 'предательство'.
2. Пропиши последствия для каждой комбинации: четыре строки в формате 'А делает X, Б делает Y — результат для А / результат для Б'. Точных цифр нет — ставь примерные: +8, +3, -2. Даже грубая оценка лучше отсутствия структуры.
3. Укажи горизонт: 'разовое взаимодействие' или 'повторяется N раз'. Это принципиально меняет рациональную стратегию — и модель это разберёт при явном указании.
4. Проси анализ структуры, а не совет: 'есть ли доминирующая стратегия?' вместо 'что мне делать?'. Если нужен кооперативный исход — говори прямо: 'найди решение, выгодное обеим сторонам'.

Примеры

[ПЛОХО] : Помоги с переговорами с поставщиком, хочу снизить цену
[ХОРОШО] : Есть два участника: А (я) и Б (поставщик). У каждого два варианта. Последствия: — А соглашается, Б снижает цену: А +8, Б +3 — А соглашается, Б держит цену: А +2, Б +7 — А уходит, Б снижает цену: А +5, Б +2 — А уходит, Б держит цену: А +5, Б +5 Это разовая встреча — повторений нет. 1. Есть ли доминирующая стратегия для каждого участника? 2. К какому исходу придут рациональные участники? 3. Что меняется, если встреч будет 20?
Источник: Evaluating Counterfactual Strategic Reasoning in Large Language Models
ArXiv ID: 2603.19167 | Сгенерировано: 2026-03-20 05:26

Проблемы LLM

ПроблемаСутьКак обойти
Знакомое слово отключает анализПишешь "переговоры", "сотрудничество", "конкуренция" — модель активирует заученный шаблон. Твою конкретную структуру ситуации она уже не считает. Получаешь книжный совет, а не анализ. Работает так для любой задачи с конфликтом интересовУбери знакомые категории из запроса. Замени их явными последствиями: "если я делаю X и они делают Y — происходит Z". Нет знакомого слова — нет шаблона

Методы

МетодСуть
Матрица последствий вместо категорийОпиши ситуацию через таблицу исходов. Для каждой комбинации действий — конкретный результат. — я делаю X, они делают Y: мне +8, им +3. — я делаю X, они делают W: мне +2, им +7. Числа могут быть примерными. Добавь горизонт: "разовая встреча" или "повторяется N раз". Потом спроси: "есть ли доминирующая стратегия?" а не "что мне делать?". Почему работает: явная структура вытесняет шаблон. Модели не за что "зацепиться" из памяти — приходится считать. Когда не работает: размытые ситуации без чётких участников и вариантов действий
📖 Простыми словами

Evaluating Counterfactual Strategic Reasoning inLargeLanguageModels

arXiv: 2603.19167

Нейросети не умеют в стратегию — они просто отличные подражатели. Когда ты просишь ChatGPT разрулить конфликт или продумать ход в бизнесе, модель не просчитывает варианты, а включает режим автозаполнения по шаблону. Она видела миллионы текстов про переговоры и просто выдает самый вероятный ответ из своей базы. Проблема в том, что LLM опирается на заученные сценарии, а не на логический анализ твоих вводных. Если ситуация хоть немного выбивается из классического учебника, модель начинает нести чушь, потому что её «мозг» настроен на узнавание знакомых букв, а не на поиск выгоды.

Это как если бы ты пришел к гроссмейстеру, а он вместо анализа доски просто повторял ходы из партии, которую выучил в детстве. Ему плевать, что ты уже подставил ферзя или сменил правила игры — он просто воспроизводит паттерн. Исследователи доказали это элегантно: они взяли классические игры вроде «Камень-ножницы-бумага» и просто переименовали действия. Как только знакомые слова исчезли, «интеллект» моделей рассыпался. Они продолжали играть так, будто перед ними старая добрая игра, хотя математика выплат уже давно изменилась.

В работе это называется контрфактическим рассуждением, но по факту это проверка на «вшивость». Ученые использовали два метода: меняли названия (вместо «предать» — «вариант А») и перекраивали таблицу выигрышей. Результат — полный провал. Модели упорно цепляются за старые стратегии, даже если они ведут к убыткам. Они ведут себя как заскриптованные боты, которые не могут адаптироваться к реальности, если она не совпадает с их обучающей выборкой.

Этот принцип применим к любым сложным задачам: от юридических споров до настройки рекламы. Тестировали на играх, но болячка общая для всех сфер. Если ты просишь совета в ситуации, где есть нестандартные условия или хитрые интересы сторон, нейронка выдаст тебе среднюю температуру по больнице. Она не видит твоих уникальных рычагов давления, она видит только текст, похожий на тысячи других текстов. LLM — это зеркало прошлого, а не инструмент для моделирования будущего.

Короче: никогда не доверяй нейросети принятие решений в «серых зонах», где правила игры отличаются от стандартных. Она не думает, она вспоминает. Если твоя ситуация хоть на 10% уникальна, модель предложит решение, которое кажется логичным, но на деле ведет к сливу бюджета или провалу сделки. Используй AI как корректора или справочник, но роль стратега оставь себе — иначе станешь жертвой галлюцинаций о здравом смысле.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с