3,583 papers
arXiv:2601.18012 74 25 янв. 2026 г. PRO

Семантика vs Арифметика: почему LLM понимают схему, но ошибаются в расчётах

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM отлично понимает что делать (какие поля брать, в каком порядке считать), но плохо выполняет саму арифметику. Модель видит таблицу зарплат и правильно определяет: сначала вычесть взносы ДО налогов, потом налоги с остатка, потом лимиты – но в расчётах путается и выдаёт ошибку в $300 вместо точности до цента. Метод градации промпта позволяет получить 100% точность через управление детализацией инструкций. Фишка: разделяй понимание структуры (отдай модели) и выполнение расчётов (контролируй явно). На простых задачах (1-3 шага) модель справится с минимальным промптом. На сложных (10+ шагов с условиями) – давай явные формулы для каждого промежуточного шага, чтобы модель не угадывала, а следовала детерминированной логике. Разница между минимальным промптом и явными формулами: 0% против 100% точности.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с