3,583 papers
arXiv:2508.13666 70 19 авг. 2025 г. PRO

Неформатированный код для LLM: экономия токенов без потери качества

КЛЮЧЕВАЯ СУТЬ
Четверть токенов API улетает в форматирование кода — пробелы, отступы, переносы строк. Это 24.5% стоимости запроса впустую. Метод позволяет резать расход токенов на 25-35% (Java/C++/C#) без потери качества генерации. Фишка: удаляешь форматирование из входа → LLM понимает так же хорошо, но жрёт меньше. Главная проблема — модель всё равно выдаёт форматированный ответ. Решение: явная инструкция в промпте («выдай без отступов, сохраняя синтаксис») → GPT-4o режет выходные токены на 27.2% при сохранении корректности.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с