3,583 papers
arXiv:2510.05152 74 2 окт. 2025 г. PRO

Delimiter Sensitivity: одиночный символ между примерами меняет точность модели на 18-45%

КЛЮЧЕВАЯ СУТЬ
Один символ-разделитель между примерами в промпте (запятая, перенос строки, хэштег) меняет точность LLM на 18-45% — это эквивалент трёх лет эволюции моделей. Проверено на MMLU, ARC-challenge для Llama, Gemma, Qwen, GPT-4o. Метод позволяет стабилизировать точность на few-shot задачах (когда даёшь примеры в промпте) вне зависимости от выбора разделителя. Фишка: добавь одну строку "примеры разделены символом X" — модель перестаёт угадывать где границы примеров, точность стабилизируется на 70-80% вместо плавающих 30-80%.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с