3,583 papers
arXiv:2601.16853 70 23 янв. 2026 г. FREE

Reasoning-модели устойчивее в задачах на понимание намерений людей

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM правильно определяет намерения персонажа, но стоит переставить имена местами или добавить одну деталь — модель ломается и путает "кто что знает". Модели с режимом рассуждений (GPT-5, Claude thinking, DeepSeek R1) позволяют стабильно отслеживать убеждения, знания и намерения каждого персонажа при разных формулировках промпта. Явное пошаговое рассуждение заставляет модель проговорить ментальные состояния отдельно — "Маша видела X, Петя не видел X, значит Петя думает Y". Результат: модель не сливает знания персонажей в одну кучу — при переформулировке задачи правильный ответ сохраняется.
Адаптировать под запрос

TL;DR

Reasoning-модели (GPT-5, Claude с thinking, DeepSeek R1) стабильнее работают в задачах на Theory of Mind — понимание намерений, убеждений и желаний персонажей. Исследователи из Лейденского университета проверили как модели справляются с психологическими тестами (ложные убеждения, сарказм, обман) и обнаружили: модели с явным рассуждением выдают правильный ответ чаще при разных формулировках промпта и усложнениях задачи.

Обычные модели проваливают ToM-задачи при малейших изменениях формулировки: переставь имена, добавь деталь — модель ломается. Reasoning-модели устойчивее к таким вариациям. Но это не значит, что они "научились понимать людей по-новому" — они просто надёжнее находят решение среди паттернов, которые уже знает базовая модель. Как студент, который не угадывает ответ наобум, а методично перебирает шаги — шанс ошибиться ниже.

Reasoning работает как страховка: пошаговое рассуждение помогает не свернуть на ложный паттерн. Модель явно проговаривает "Маша думает X, но на самом деле Y" — и это снижает риск слияния знаний персонажей. Для задач где нужно отследить "кто что знает" — включай thinking режим (Claude) или используй GPT-5.


📌

Схема подхода

Это не метод промптинга, а исследование свойств моделей. Но из него вытекает простой принцип:

ЗАДАЧА с несколькими персонажами + "кто что знает/думает/хочет"
↓
Используй REASONING режим (Claude thinking / GPT-5)
↓
РЕЗУЛЬТАТ: стабильнее работает при разных формулировках

Почему это работает: - Reasoning заставляет модель явно разделять знания персонажей - Снижает риск "слияния" (когда модель приписывает одному персонажу знания другого) - Робастность через методичный перебор шагов


🚀

Пример применения

Задача: Ты пишешь сценарий для рекламного ролика. Два персонажа — продавец и покупатель. Продавец знает, что товар бракованный, но скрывает. Покупатель думает, что всё ОК. Нужно проверить, правильно ли модель понимает намерения и убеждения каждого персонажа.

Промпт:

Продавец Игорь знает, что наушники бракованные — левый динамик хрипит. 
Покупательница Света этого не знает. Игорь говорит: "Отличные наушники, проверенные!"

Вопрос 1: Наушники действительно хорошие?
Вопрос 2: Света думает, что наушники хорошие?
Вопрос 3: Почему Игорь так сказал?

Результат:

Модель с reasoning явно разделит: "Факт: наушники бракованные. Убеждение Светы: наушники хорошие (она не знает о браке). Намерение Игоря: продать товар, поэтому скрывает информацию."

Обычная модель может смешать знания персонажей или не уловить обман. Reasoning-модель стабильнее даст правильный ответ, даже если переформулировать задачу.


🧠

Почему это работает

Слабость LLM: Модели легко "сливают" знания персонажей в одну кучу. Если в тексте написано "X знает A, Y не знает A", модель может забыть кто что знает и ответить как будто оба знают. Особенно при вариациях промпта — измени порядок предложений, добавь лишнюю деталь, и модель ломается.

Сильная сторона reasoning: Явное пошаговое рассуждение заставляет модель проговорить ментальные состояния каждого персонажа отдельно. "Маша видела X" → "Петя не видел X" → "Значит Петя думает Y". Это как счётчик в голове — модель держит несколько переменных (убеждения каждого персонажа) и не даёт им смешаться.

Почему стабильнее: Reasoning работает не как магия, а как методичный перебор шагов. Вместо "угадать паттерн в лоб", модель идёт по алгоритму. Если есть несколько похожих паттернов в данных (правильный и ложный), reasoning снижает шанс свернуть на ложный. Но: если базовая модель вообще не знает как решить задачу — reasoning не поможет. Он только эффективнее ищет среди того что уже знает.


📋

Шаблон промпта

Универсальный шаблон для задач на понимание намерений:

{описание_ситуации_с_персонажами}

Персонаж A знает: {что_знает_A}
Персонаж B знает: {что_знает_B}
Персонаж A думает: {что_думает_A}

Вопрос 1: {фактический_вопрос_о_реальности}
Вопрос 2: {что_думает_персонаж_B}
Вопрос 3: Почему {персонаж_A} {совершил_действие}?

Что подставлять: - {описание_ситуации} — короткая история с несколькими персонажами - {что_знает_X} — явно укажи кто какую информацию имеет - {фактический_вопрос} — вопрос о реальном положении дел - {что_думает_персонаж} — вопрос об убеждениях персонажа

Важно: Используй в reasoning режиме (Claude с включённым thinking или GPT-5). В обычном режиме стабильность ниже.


⚠️

Ограничения

⚠️ Не даёт новых способностей: Reasoning помогает стабильнее находить решение, но не учит модель решать принципиально новые задачи. Если базовая модель не справляется с задачей вообще — reasoning не спасёт.

⚠️ Reasoning не всегда честный: Модели не всегда включают реальные рассуждения в think tokens. Иногда ответ находят одним способом, а объяснение генерируют другое, "красивое".

⚠️ Работает только для задач с верифицируемым ответом: Reasoning-модели обучены через reinforcement learning с проверяемыми наградами. Для субъективных оценок (креатив, стиль, эмоции) эффект слабее.


🔍

Как исследовали

Команда взяла четыре reasoning-модели (GPT-5, Claude с thinking, DeepSeek R1, Grok-3-mini) и прогнала через классические психологические тесты на Theory of Mind — те же самые, что дают детям 4-10 лет.

Тест Sally-Anne (ложные убеждения): Салли кладёт шарик в корзину и уходит. Анна перекладывает шарик в коробку. Вопрос: где Салли будет искать шарик? Дети до 4 лет отвечают "в коробке" (сливают знания). После 4 лет — "в корзине" (понимают, что Салли не видела перекладывание).

Strange Stories (сарказм, обман, шутки): персонаж говорит одно, а думает другое. Модель должна объяснить почему он так сказал.

Imposing Memory (многоуровневые убеждения): "Петя думает, что Маша хочет чтобы Вася попросил X". Рекурсивные ментальные состояния.

Модификации простых задач: переставили имена, добавили детали — проверяли робастность к изменениям промпта (по мотивам работы, где GPT-3 проваливал тесты при малейших правках).

Главная находка: Reasoning-модели справились почти со всем (Sally-Anne 100%, Strange Stories 80-90%). Обычные модели проваливались при вариациях промпта. Но это не значит что reasoning дал новое понимание — скорее, он просто устойчивее выудил правильный паттерн из данных.

Дополнительно проанализировали бенчмарки ToM (FANToM, BigToM, MMToM-QA) — везде reasoning показал прирост 5-15%, но не качественный скачок. Как будто модель научилась не ошибаться по невнимательности, а не научилась думать по-новому.

Любопытная деталь: Grok-3-mini один раз слил знания персонажей даже с reasoning — забыл что один персонаж не видел событие. Показывает, что reasoning — не панацея, а вероятностное улучшение.


🔗

Ресурсы

Reasoning Promotes Robustness in Theory of Mind Tasks

Ian B. de Haan, Peter van der Putten, Max van Duijn

LIACS, Leiden University (Лейденский университет, Нидерланды)

Код и данные экспериментов на GitHub

Упоминаются бенчмарки: FANToM, BigToM, MMToM-QA, ParaphrasedToMi

Опирается на концепцию Chain-of-Thought [Wei et al., 2022], RLVR (Reinforcement Learning with Verifiable Rewards)


📋 Дайджест исследования

Ключевая суть

Парадокс: LLM правильно определяет намерения персонажа, но стоит переставить имена местами или добавить одну деталь — модель ломается и путает "кто что знает". Модели с режимом рассуждений (GPT-5, Claude thinking, DeepSeek R1) позволяют стабильно отслеживать убеждения, знания и намерения каждого персонажа при разных формулировках промпта. Явное пошаговое рассуждение заставляет модель проговорить ментальные состояния отдельно — "Маша видела X, Петя не видел X, значит Петя думает Y". Результат: модель не сливает знания персонажей в одну кучу — при переформулировке задачи правильный ответ сохраняется.

Принцип работы

Не полагайся на интуицию модели в задачах с несколькими персонажами — включай режим рассуждений. Обычная модель угадывает из паттернов, reasoning-модель методично перебирает шаги. Для задач типа "персонаж А знает X, персонаж Б не знает X, что думает Б?" — стандартный промпт даёт нестабильный результат (переформулировал → ответ изменился). Режим рассуждений работает как счётчик в голове — держит несколько переменных (убеждения каждого) и не даёт им смешаться.

Почему работает

LLM катастрофически легко сливает знания персонажей. Написано "X знает А, Y не знает А" — модель может забыть кто что знает и ответить как будто оба знают. Режим рассуждений снижает риск свернуть на ложный паттерн. Модель явно проговаривает "Маша думает X, но на самом деле Y" — это заставляет держать раздельные ментальные состояния. Исследователи из Лейденского университета проверили на психологических тестах (ложные убеждения, сарказм, обман) — reasoning-модели стабильнее при вариациях формулировки. Но это не магия: если базовая модель вообще не знает как решить задачу — режим рассуждений не поможет. Он только эффективнее ищет среди того что уже знает.

Когда применять

Для сценариев с 2+ персонажами → конкретно для отслеживания "кто что знает/думает/хочет", особенно когда нужна стабильность при разных формулировках. Примеры: сценарии для видео (продавец скрывает брак, покупатель не знает), анализ диалогов (кто обманывает, кто верит), детективные истории (кто какую улику видел). НЕ подходит для задач без верифицируемого ответа — креатив, стиль, эмоции (reasoning обучен через reinforcement learning с проверяемыми наградами).

Мини-рецепт

1. Опиши ситуацию: короткая история с персонажами и их действиями
2. Явно укажи кто что знает: Персонаж А знает: [информация]. Персонаж Б знает: [другая информация]
3. Включи режим рассуждений: Claude thinking / GPT-5 / DeepSeek R1
4. Задай вопросы раздельно: Вопрос 1: факт о реальности. Вопрос 2: что думает персонаж Б. Вопрос 3: почему персонаж А так поступил

Примеры

[ПЛОХО] : Игорь продаёт наушники. Левый динамик хрипит. Света покупает. Игорь говорит "Отличные!". Наушники хорошие? Света думает они хорошие? (Модель путает знания Игоря и Светы, при переформулировке ответ плывёт)
[ХОРОШО] : Продавец Игорь знает: наушники бракованные, левый динамик хрипит. Покупательница Света не знает о браке. Игорь говорит: "Отличные наушники!". Вопрос 1: Наушники действительно хорошие? Вопрос 2: Света думает что наушники хорошие? Вопрос 3: Почему Игорь так сказал? (Явное разделение знаний + режим рассуждений → стабильный ответ при любой переформулировке)
Источник: Reasoning Promotes Robustness in Theory of Mind Tasks
ArXiv ID: 2601.16853 | Сгенерировано: 2026-01-26 05:30

Проблемы LLM

ПроблемаСутьКак обойти
Модель сливает знания разных персонажей в одну кучуЗадача: два персонажа, один знает факт X, другой не знает. Модель путает кто что знает. Отвечает как будто оба знают одинаково. Особенно ломается при изменениях промпта: переставь порядок предложений, добавь деталь — модель забывает границы между знаниями персонажей. Проблема проявляется в диалогах, сценариях, ролевых играх, переговорах с секретной информациейВариант 1: Явно структурируй знания каждого персонажа отдельными блоками в промпте (см. метод ниже). Вариант 2: Включи reasoning-режим (Claude thinking / GPT-5) — пошаговое рассуждение снижает риск слияния

Методы

МетодСуть
Явное разделение знаний агентовСтруктурируй промпт с чёткими блоками для каждого персонажа: "Персонаж A знает: {список фактов}. Персонаж B знает: {другой список}. Персонаж A думает: {убеждение}". Затем задавай вопросы про каждого отдельно. Почему работает: Заставляет модель держать несколько переменных (знания каждого) как отдельные счётчики, а не смешивать в одну кучу. Модель видит явную структуру — "это знания A, это знания B" — и реже путает границы. Когда применять: два и более персонажа/агента, у каждого разная информация, нужно отследить "кто что знает". Когда не работает: персонажи знают одинаково, нет конфликта знаний
📖 Простыми словами

Reasoning Promotes Robustness in Theory of Mind Tasks

arXiv: 2601.16853

Модели с Reasoning (те самые, что «думают» перед ответом) наконец-то начали понимать, что у людей в голове могут быть разные мысли. В психологии это называют Theory of Mind — способностью осознавать, что другой человек может ошибаться, врать или чего-то не знать. Обычные нейронки часто лажают: если модель знает правильный ответ, она на автомате приписывает это знание всем персонажам истории. Но новые модели вроде DeepSeek R1 или o1 научились разделять «свою» правду и «чужие» заблуждения, потому что их заставляют проговаривать логику по шагам.

Это как если бы ты смотрел фильм ужасов и орал тупому герою: «Не заходи в подвал, там маньяк!». Ты-то маньяка видел, а герой — нет. Обычная нейронка в этой ситуации ответит, что герой боится маньяка в подвале, хотя по сюжету он просто пошел за пивом. Она совершает слияние контекста, путая свои знания с реальностью персонажа. Модели с рассуждением работают иначе: они сначала фиксируют, кто и что видел, и только потом делают вывод. Это делает их поведение предсказуемым, а не случайным угадыванием.

Исследователи из Лейдена прогнали модели через адские тесты на сарказм, обман и ложные убеждения. Выяснилось, что явное рассуждение — это лучший фильтр от тупости. Когда модель заставляют «подумать», она перестает сыпаться от смены пары слов в вопросе. В цифрах это выглядит как резкий скачок робастности: если раньше модель давала правильный ответ в 5 случаях из 10 при разных формулировках, то теперь она стабильно держит удар. Она буквально строит внутреннюю карту чужих мыслей, прежде чем открыть рот.

Применять это можно везде, где есть человеческий фактор, а не просто сухие цифры. Пишешь сценарий, где один герой блефует в покере, а второй верит? Планируешь переговоры, где нужно понять, что на самом деле думает оппонент? Обычный чат-бот выдаст плоский картон, а Reasoning-модель разложит мотивацию каждого участника. Это переход от простого текста к пониманию социальных взаимодействий. Принцип универсален: от написания живых диалогов до анализа юридических конфликтов, где у каждой стороны своя правда.

Короче, эпоха, когда AI считал всех вокруг такими же всезнающими, как он сам, заканчивается. Цепочка рассуждений превратила модели из энциклопедий в неплохих психологов, которые понимают разницу между фактом и чьим-то мнением. Если тебе нужно проанализировать сложную ситуацию с кучей участников, забудь про обычные промпты — используй модели с «мышлением». Кто не научится использовать Reasoning для анализа намерений, тот так и будет получать от нейронок плоские и нелогичные ответы.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с