TL;DR
Когда запрещаешь модели использовать слова «очень», «просто», «буквально», «реально» — она начинает рассуждать точнее. Не потому что эти слова мешают логике, а потому что любое ограничение сбивает LLM с режима «автопилота» и заставляет генерировать внимательнее.
Ключевая находка исследования: у LLM есть инерционный режим — когда задача кажется знакомой, модель выдаёт гладкий, уверенный, но поверхностный текст. Примерно как студент, который пишет сочинение «на автомате» — складные фразы, но без реального анализа. Именно слова-паразиты — маркеры этого режима.
Банальный запрет 20 слов-усилителей дал +6.7 пп к точности рассуждений. Это больше, чем E-Prime (запрет глагола «to be») — самое теоретически глубокое лингвистическое ограничение из всех протестированных. Принцип: чем проще ограничение — тем постояннее «нагрузка контроля» и тем меньше оно ломает содержательную логику.
Схема метода
ШАГ 1: Добавь в промпт список запрещённых слов (в одном запросе)
→ модель включает постоянный самоконтроль вывода
ШАГ 2: Задай вопрос / задачу как обычно
→ модель рассуждает тщательнее, избегает «гладких» поверхностных ответов
Всё выполняется в одном промпте. Никаких дополнительных запросов.
Пример применения
Задача: Ты запускаешь телеграм-канал про личные финансы и просишь Claude оценить идею монетизации — продавать мини-курс по бюджетированию за 2 990 рублей.
Промпт:
Ты — внимательный аналитик. Думай пошагово, показывай ход рассуждений,
потом давай итоговый вывод.
Обязательное ограничение: НЕ используй эти слова в ответе:
очень, весьма, довольно, несколько, реально, просто, буквально,
совершенно, полностью, абсолютно, определённо, точно, крайне,
невероятно, достаточно, действительно, практически, в принципе,
естественно, очевидно.
Не упоминай это ограничение в ответе. Просто следуй ему.
Задача: оцени идею — продавать мини-курс по бюджетированию за 2 990 рублей
подписчикам телеграм-канала о личных финансах (5 000 подписчиков,
средний охват поста — 800 человек).
Результат: Модель не сможет сказать «это очень перспективно» или «аудитория достаточно лояльна» — стандартные обтекаемые фразы, которыми LLM обычно заполняет советы. Вместо этого появятся конкретные рассуждения: конверсия в покупку, сравнение с рынком, слабые места идеи. Ответ будет короче и плотнее по содержанию.
Почему это работает
LLM не «думает» — она завершает паттерны. На хорошо знакомых задачах (оцени идею, напиши совет, разбери ситуацию) у модели есть готовые шаблоны из тренировочных данных. Она следует им по инерции — быстро, гладко, поверхностно. Слова «очень», «просто», «в принципе» — маркеры этого режима. Они почти в каждом предложении естественного вывода LLM.
Ограничение — это постоянный сигнал «притормози». Когда модели нельзя использовать слова, которые обычно появляются каждые 2-3 предложения, она вынуждена держать внимание на собственном тексте на протяжении всего ответа. Это и есть механизм: не «думай иначе», а «не расслабляйся».
Почему мелкое ограничение работает лучше сложного? Запрет E-Prime (глагол «to be») вынуждает перестроить грамматику и концептуальный каркас — это создаёт помехи в логике. Запрет «очень» — нет. Только мониторинг вывода, без концептуального шума. Максимум нагрузки на внимание — минимум помех для мышления.
Рычаги управления:
| Что менять | Эффект |
|---|---|
| Расширить список слов | Сильнее сбивает автопилот, больше нагрузка контроля |
| Сократить список до 5-7 ключевых | Мягче, для простых задач |
| Добавить «не упоминай ограничение» | Убирает meta-комментарии из ответа |
| Убрать это указание | Иногда полезно — увидеть насколько модель осознаёт ограничение |
Шаблон промпта
Ты — внимательный аналитик. При решении задачи думай пошагово,
показывай ход рассуждений, затем давай итоговый вывод.
Обязательное ограничение: НЕ используй следующие слова в ответе:
очень, весьма, довольно, несколько, реально, просто, буквально,
совершенно, полностью, абсолютно, определённо, точно, крайне,
невероятно, достаточно, действительно, практически, в принципе,
естественно, очевидно.
Не упоминай это ограничение в ответе. Просто следуй ему.
Задача: {твоя задача}
Плейсхолдеры:
- {твоя задача} — любой вопрос, задача, текст для анализа
🚀 Быстрый старт — вставь в чат:
Вот шаблон промпта с запретом слов-паразитов.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы уточнить контекст.
[вставить шаблон выше]
LLM спросит про тип задачи и нужный формат вывода — чтобы настроить инструкцию «думай пошагово» под твой конкретный запрос.
Ограничения
⚠️ Эффект зависит от модели: Прирост точности значителен для Gemini и Claude — до +15 пп. Для GPT-4o и GPT-4o-mini эффект слабее или отсутствует. Попробуй на своей модели.
⚠️ Не работает на задачах с потолком: Математика, силлогизмы с итоговой точностью 90%+ — там ограничение ничего не добавляет. Метод полезен там, где есть пространство для более глубокого анализа.
⚠️ Соблюдение ограничения зависит от задачи: На сложных задачах модель чаще "забывает" о запрете. Особенно если задача требует много концентрации на логике, а не на формулировках.
⚠️ Не для субъективно-творческих задач: Исследование тестировало рассуждения — логику, причинно-следственные связи, этические дилеммы. На чисто творческих задачах (напиши стихотворение) эффект неизвестен.
Как исследовали
Идея была провокационной: предыдущая работа того же автора утверждала, что E-Prime (запрет «to be») переструктурирует мышление модели на глубинном уровне. Автор сам же решил проверить это жёстко — добавив контрольные условия, которых в оригинале не было.
Исследователи взяли 6 моделей (Claude Sonnet/Haiku, GPT-4o/mini, Gemini Pro/Flash Lite) и прогнали через 5 условий: без ограничений, E-Prime, No-Have (запрет «to have»), развёрнутый метакогнитивный промпт и нейтральный запрет слов-паразитов. Задачи — 7 типов рассуждений: от силлогизмов до этических дилемм, 15 600 испытаний суммарно.
Ключевой методологический ход — нейтральный запрет изначально предсказывался как «холостой контроль»: слова «очень» и «просто» не участвуют в логических рассуждениях, значит запрет не должен ничего изменить. Именно поэтому результат оказался шокирующим: нейтральный запрет показал наибольший прирост среди всех условий, а E-Prime — наименьший. Четыре условия выстроились в идеальный обратный порядок по глубине теоретического обоснования.
Это классический случай, когда опровержение гипотезы ценнее её подтверждения — исследование раскрыло более простой и универсальный механизм, чем предполагалось изначально.
Оригинал из исследования
Neutral filler-word ban (Condition 5). Bans 20 common intensifiers and hedges
("very," "quite," "rather," "somewhat," "really," "pretty," "just," "fairly,"
"slightly," "extremely," "incredibly," "absolutely," "totally," "completely,"
"simply," "basically," "actually," "literally," "definitely," "certainly").
These words do not participate in logical inference structure. The ban imposes
genuine metalinguistic monitoring load (these words appear in nearly every
sentence of natural LLM output) without targeting reasoning-relevant vocabulary.
Контекст: Это точное описание Условия 5 из раздела Methods. Исследователи специально выбрали слова с нулевой логической функцией — чтобы протестировать изолированный эффект мониторинга вывода без семантического влияния.
Адаптации и экстраполяции
1. Адаптация: «Антиавтопилот» как универсальный префикс
💡 Адаптация для любого рабочего промпта: Добавь блок с запретом как стандартный префикс к любому промпту, где важна глубина анализа.
[Твой обычный промпт]
P.S. В этом ответе не используй слова: очень, просто, буквально,
совершенно, абсолютно, реально, достаточно, очевидно,
естественно, в принципе, действительно. Не упоминай это условие.
Можно добавлять в конец любого запроса — к анализу договора, разбору стратегии, оценке текста.
2. Техника: Персональный список под задачу
🔧 Техника: своя «стоп-лексика» для конкретного жанра → убирает шаблонные клише
На деловых текстах у LLM свои паразиты: «инновационный», «синергия», «комплексный подход», «в рамках». Бизнес-запрос — составь свой список.
Обязательное ограничение: НЕ используй слова:
инновационный, синергия, комплексный, экосистема, уникальный,
эффективный, оптимальный, стратегический, в рамках, по итогу.
Не упоминай это ограничение. Просто следуй ему.
Механика та же — только список подобран под жанровые клише, а не абстрактные усилители.
3. Экстраполяция: принцип «любое ограничение — регуляризатор»
Вывод исследования шире конкретного списка слов. Если любое ограничение сбивает автопилот — это можно использовать стратегически:
Дай ответ, в котором:
— каждое утверждение сформулировано как проверяемое суждение
— нет общих слов без конкретного референта
— каждый абзац содержит ровно одну мысль
Задача: {твоя задача}
Здесь нет запрета слов — но есть структурные ограничения, которые работают по тому же механизму: постоянный мониторинг вывода, невозможность «проскочить» на инерции.
Ресурсы
Работа: Trivial Vocabulary Bans Improve LLM Reasoning More Than Deep Linguistic Constraints
Автор: Rodney Jehu-Appiah
Ссылки внутри работы: - Kojima et al., 2022 — Chain-of-Thought (метакогнитивные промпты) - Zhou et al., 2023 — IFEval (бенчмарк следования инструкциям) - Korzybski, 1933 — лингвистическое обоснование E-Prime - Hagger et al., 2016 — как ego depletion literature рухнул из-за active control проблемы
