3,583 papers
arXiv:2510.08517 78 9 окт. 2025 г. PRO

CaRT: когда модель знает достаточно — контрфактуальное мышление для управления глубиной исследования

КЛЮЧЕВАЯ СУТЬ
LLM не чувствует момент когда хватит думать. Либо бросает рано (недостаточно данных → ошибка), либо тянет резину (лишние вопросы → трата ресурсов, а иногда цепляется за лишнее и портит результат). Метод CaRT позволяет модели принимать решение "продолжить исследование" или "хватит, отвечаю" на основе оценки ценности будущей информации. Фишка: модель учится на парах почти одинаковых ситуаций с противоположными решениями. Например, диалог с пациентом где последний вопрос дал критический симптом (правильно остановиться) vs тот же диалог где последний вопрос не дал ничего важного (правильно продолжить). Плюс модель вербализует ПОЧЕМУ решение правильное перед самим выбором — это работает как предсказание "станет ли легче если продолжу".
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с