3,583 papers
arXiv:2602.07470 72 7 фев. 2026 г. PRO

Робастность рассуждений: как reasoning LLM восстанавливаются от помех в своих цепочках мысли

КЛЮЧЕВАЯ СУТЬ
Парадокс: Reasoning модели восстанавливаются от любых помех в цепочке рассуждений (CoT) — случайный мусор, фейковые факты, чужие ответы. Точность остаётся на уровне 100% даже при враждебных вмешательствах. Но парафраз CoT (переписать то же самое другими словами) ломает качество сильнее всех остальных помех. Исследование на 9 моделях (DeepSeek-R1, QwQ-32B, Phi-4) показало: модели настроены не только на смысл, но и на форму изложения. Фишка механизма: модель вставляет триггеры сомнения ('wait', 'hold on', 'let me check') — это запускает самокорректировку. Парафраз подавляет эти триггеры — формальный стиль ('Let us denote...') заменяет разговорный ('Hmm, let me think...'), и модель теряет способность исправлять ошибки.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с