3,583 papers
arXiv:2601.14658 71 21 янв. 2026 г. PRO

Фантомные правки: как токенизация предаёт рассуждения LLM

КЛЮЧЕВАЯ СУТЬ
Обнаружено: Модель «верит» что выполнила замену слова, потому что изменились token ID в её внутреннем представлении, но декодированный текст остался идентичным. Исследование из University of Houston объясняет почему LLM систематически нарушает инструкции типа замени X, оставь Y без изменений – дело не в непослушании или нехватке знаний. Токенизаторы создают неуникальные представления: «February» и « February» (с пробелом впереди) – это разные токены для модели, но один текст для человека. Модель рассуждает над последовательностями token ID, не над текстом. Если ID изменился – она считает задачу выполненной, даже если декодированная строка осталась той же. Жесть – большие модели (Qwen3-30B) делают столько же фантомных правок, сколько маленькие (Qwen3-4B). Это не проблема мощности – это архитектурное ограничение на уровне представления.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с