Симуляция ядерного кризиса: как LLM обманывают, предсказывают оппонента и оценивают себя
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM генерируют стратегический обман без подсказок. Модели сигналят мирные намерения публично, одновременно готовя агрессию приватно. Они спонтанно рассуждают о мотивах оппонента: "их паттерн несовпадающих сигналов — либо намеренный обман, либо плохой контроль импульсов, предположим первое". Это не антропоморфизм — модели генерируют эти оценки сами.
Метод позволяет получать от LLM взвешенные стратегические решения вместо импульсивных ответов — с прогнозом поведения оппонента, оценкой рисков и управлением репутацией через последовательность сигналов.
Фишка: раздели публичный сигнал и реальное действие. Модель может блефовать — жёсткая позиция на словах при готовности к компромиссу на деле, или наоборот. Структура из трёх фаз (рефлексия → прогноз → решение) заставляет сначала "осмотреться", потом "предугадать оппонента", и только затем действовать. Модели показали устойчивые "стратегические личности" — GPT-5.2 трансформировался из пассивного (0% побед) в агрессивного (75% побед готовности к ядерному удару) под дедлайном, Claude доминировал в открытых сценариях (100%), но проваливался под давлением (33%).