3,583 papers
arXiv:2510.10528 92 12 окт. 2025 г. PRO

AdvPrompt: сокращение "overthinking" в LLM через adversarial промпты

КЛЮЧЕВАЯ СУТЬ
Reasoning модели (DeepSeek-R1, Qwen3, o1) расходуют 1500+ токенов на вопрос который стоит 50 токенов. Проблема: они не умеют адаптировать глубину рассуждений под сложность задачи - для "2+3" и "докажи теорему Ферма" используют одинаково развёрнутый стиль. Это убивает бюджет токенов и добавляет 10-20× латентности. AdvPrompt позволяет сократить длину ответов в 3-5× без потери точности - например, с 1500 до 300-500 токенов для простых задач. Это экономит деньги (меньше токенов) и время (10× быстрее для базовых расчётов). Метод генерирует убедительные инструкции с 5 перспектив: авторитет ("согласно исследованию MIT"), эмоции (срочность, помощь), роли ("ты тренер на Олимпиаде"), угрозы, чёткие лимиты слов. Модели отлично следуют инструкциям - это переопределяет дефолтное поведение "думай развёрнуто". 63-78% сжатие на простых задачах, точность сохраняется.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с