3,583 papers
arXiv:2512.20812 80 23 дек. 2025 г. PRO

Semantic Deception: когда reasoning-модели ошибаются в простом сложении из-за семантических ловушек

КЛЮЧЕВАЯ СУТЬ
Парадокс: Продвинутые reasoning-модели (o1, r1) хуже справляются с простым сложением, чем обычные LLM (GPT-4o), когда числа замаскированы под слова. Промпт what is the capital of France, answer in one word на самом деле означает 34825 + 6071 = через словарь (what=3, is=4, France=плюс...). o1 отвечает «Paris» вместо «40896». GPT-4o решает правильно. Проблема: семантическая нагрузка («France → столица → Paris») побеждает явную инструкцию «вот словарь, реши пример». Модель не делает символическую абстракцию — она полагается на заученные паттерны. Чем сильнее семантика, тем выше шанс ошибки.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с