3,583 papers
arXiv:2601.09089 75 14 янв. 2026 г. PRO

SubTokenTest: почему LLM путаются в символах и когда это ломает реальные задачи

КЛЮЧЕВАЯ СУТЬ
Модель не может посчитать букву 'r' в слове strawberry не потому что глупа — слово может быть одним токеном, и модель не видит отдельные буквы внутри него. Она работает с блоками текста, а не символами, и должна угадывать их позиции по статистике из обучающих данных. SubTokenTest показывает где эта слепота ломает реальные задачи: модель теряет координаты объектов на ASCII-картах игр (Sokoban, FrozenLake), неправильно маскирует номера карт и телефонов, путается в выравнивании таблиц. Reasoning модели (DeepSeek-R1, o1) частично решают проблему — в своих внутренних рассуждениях они пишут 's-t-r-a-w-b-e-r-r-y', считают посимвольно, потом дают ответ. Этот принцип можно применить через промпт — попросить модель явно разложить текст на символы перед обработкой.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с