3,583 papers
arXiv:2602.08693 78 9 фев. 2026 г. PRO

Reasoning Aligns Language Models to Human Cognition: почему CoT улучшает выводы, но не поиск информации

КЛЮЧЕВАЯ СУТЬ
Chain-of-thought радикально улучшает способность модели делать выводы из собранных фактов (корреляция с точностью r=-0.99), но почти не влияет на умение выбирать какие факты собирать (r=-0.47). Топовые модели с CoT достигают уровня людей в интеграции данных, но стабильно проигрывают в стратегии активного поиска информации. Метод позволяет использовать CoT там где он реально работает (сложные выводы из многих фактов) и не тратить токены там где бесполезен (планирование сбора данных). Фишка: CoT выносит накопление информации наружу — превращает размытые внутренние активации модели в явные промежуточные выводы. Это стабилизирует интеграцию фактов, но не даёт интуиции "что спросить следующим".
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с