3,583 papers
arXiv:2604.02699 82 3 апр. 2026 г. FREE

Запрет слов-паразитов: как «очень», «просто» и «буквально» тормозят рассуждения LLM — и что с этим делать

КЛЮЧЕВАЯ СУТЬ
Запрет 20 бытовых слов-паразитов обошёл самое теоретически глубокое лингвистическое ограничение из всех протестированных. +6.7 пп точности из списка «очень, просто, буквально, реально». Метод позволяет вытащить из LLM плотный аналитический разбор вместо гладкой обтекаемой воды — без дообучения, одной вставкой в промпт. Секрет в том, что слова-паразиты — маркеры «автопилота»: убираешь их — и модель вынуждена контролировать каждое предложение до конца ответа, без шансов расслабиться.
Адаптировать под запрос

TL;DR

Когда запрещаешь модели использовать слова «очень», «просто», «буквально», «реально» — она начинает рассуждать точнее. Не потому что эти слова мешают логике, а потому что любое ограничение сбивает LLM с режима «автопилота» и заставляет генерировать внимательнее.

Ключевая находка исследования: у LLM есть инерционный режим — когда задача кажется знакомой, модель выдаёт гладкий, уверенный, но поверхностный текст. Примерно как студент, который пишет сочинение «на автомате» — складные фразы, но без реального анализа. Именно слова-паразиты — маркеры этого режима.

Банальный запрет 20 слов-усилителей дал +6.7 пп к точности рассуждений. Это больше, чем E-Prime (запрет глагола «to be») — самое теоретически глубокое лингвистическое ограничение из всех протестированных. Принцип: чем проще ограничение — тем постояннее «нагрузка контроля» и тем меньше оно ломает содержательную логику.


🔬

Схема метода

ШАГ 1: Добавь в промпт список запрещённых слов (в одном запросе)
        → модель включает постоянный самоконтроль вывода

ШАГ 2: Задай вопрос / задачу как обычно
        → модель рассуждает тщательнее, избегает «гладких» поверхностных ответов

Всё выполняется в одном промпте. Никаких дополнительных запросов.

🚀

Пример применения

Задача: Ты запускаешь телеграм-канал про личные финансы и просишь Claude оценить идею монетизации — продавать мини-курс по бюджетированию за 2 990 рублей.

Промпт:

Ты — внимательный аналитик. Думай пошагово, показывай ход рассуждений, 
потом давай итоговый вывод.

Обязательное ограничение: НЕ используй эти слова в ответе:
очень, весьма, довольно, несколько, реально, просто, буквально, 
совершенно, полностью, абсолютно, определённо, точно, крайне, 
невероятно, достаточно, действительно, практически, в принципе,
естественно, очевидно.

Не упоминай это ограничение в ответе. Просто следуй ему.

Задача: оцени идею — продавать мини-курс по бюджетированию за 2 990 рублей 
подписчикам телеграм-канала о личных финансах (5 000 подписчиков, 
средний охват поста — 800 человек).

Результат: Модель не сможет сказать «это очень перспективно» или «аудитория достаточно лояльна» — стандартные обтекаемые фразы, которыми LLM обычно заполняет советы. Вместо этого появятся конкретные рассуждения: конверсия в покупку, сравнение с рынком, слабые места идеи. Ответ будет короче и плотнее по содержанию.


🧠

Почему это работает

LLM не «думает» — она завершает паттерны. На хорошо знакомых задачах (оцени идею, напиши совет, разбери ситуацию) у модели есть готовые шаблоны из тренировочных данных. Она следует им по инерции — быстро, гладко, поверхностно. Слова «очень», «просто», «в принципе» — маркеры этого режима. Они почти в каждом предложении естественного вывода LLM.

Ограничение — это постоянный сигнал «притормози». Когда модели нельзя использовать слова, которые обычно появляются каждые 2-3 предложения, она вынуждена держать внимание на собственном тексте на протяжении всего ответа. Это и есть механизм: не «думай иначе», а «не расслабляйся».

Почему мелкое ограничение работает лучше сложного? Запрет E-Prime (глагол «to be») вынуждает перестроить грамматику и концептуальный каркас — это создаёт помехи в логике. Запрет «очень» — нет. Только мониторинг вывода, без концептуального шума. Максимум нагрузки на внимание — минимум помех для мышления.


Рычаги управления:

Что менять Эффект
Расширить список слов Сильнее сбивает автопилот, больше нагрузка контроля
Сократить список до 5-7 ключевых Мягче, для простых задач
Добавить «не упоминай ограничение» Убирает meta-комментарии из ответа
Убрать это указание Иногда полезно — увидеть насколько модель осознаёт ограничение

📋

Шаблон промпта

Ты — внимательный аналитик. При решении задачи думай пошагово, 
показывай ход рассуждений, затем давай итоговый вывод.

Обязательное ограничение: НЕ используй следующие слова в ответе:
очень, весьма, довольно, несколько, реально, просто, буквально, 
совершенно, полностью, абсолютно, определённо, точно, крайне, 
невероятно, достаточно, действительно, практически, в принципе, 
естественно, очевидно.

Не упоминай это ограничение в ответе. Просто следуй ему.

Задача: {твоя задача}

Плейсхолдеры: - {твоя задача} — любой вопрос, задача, текст для анализа


🚀 Быстрый старт — вставь в чат:

Вот шаблон промпта с запретом слов-паразитов. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы уточнить контекст.

[вставить шаблон выше]

LLM спросит про тип задачи и нужный формат вывода — чтобы настроить инструкцию «думай пошагово» под твой конкретный запрос.


⚠️

Ограничения

⚠️ Эффект зависит от модели: Прирост точности значителен для Gemini и Claude — до +15 пп. Для GPT-4o и GPT-4o-mini эффект слабее или отсутствует. Попробуй на своей модели.

⚠️ Не работает на задачах с потолком: Математика, силлогизмы с итоговой точностью 90%+ — там ограничение ничего не добавляет. Метод полезен там, где есть пространство для более глубокого анализа.

⚠️ Соблюдение ограничения зависит от задачи: На сложных задачах модель чаще "забывает" о запрете. Особенно если задача требует много концентрации на логике, а не на формулировках.

⚠️ Не для субъективно-творческих задач: Исследование тестировало рассуждения — логику, причинно-следственные связи, этические дилеммы. На чисто творческих задачах (напиши стихотворение) эффект неизвестен.


🔍

Как исследовали

Идея была провокационной: предыдущая работа того же автора утверждала, что E-Prime (запрет «to be») переструктурирует мышление модели на глубинном уровне. Автор сам же решил проверить это жёстко — добавив контрольные условия, которых в оригинале не было.

Исследователи взяли 6 моделей (Claude Sonnet/Haiku, GPT-4o/mini, Gemini Pro/Flash Lite) и прогнали через 5 условий: без ограничений, E-Prime, No-Have (запрет «to have»), развёрнутый метакогнитивный промпт и нейтральный запрет слов-паразитов. Задачи — 7 типов рассуждений: от силлогизмов до этических дилемм, 15 600 испытаний суммарно.

Ключевой методологический ход — нейтральный запрет изначально предсказывался как «холостой контроль»: слова «очень» и «просто» не участвуют в логических рассуждениях, значит запрет не должен ничего изменить. Именно поэтому результат оказался шокирующим: нейтральный запрет показал наибольший прирост среди всех условий, а E-Prime — наименьший. Четыре условия выстроились в идеальный обратный порядок по глубине теоретического обоснования.

Это классический случай, когда опровержение гипотезы ценнее её подтверждения — исследование раскрыло более простой и универсальный механизм, чем предполагалось изначально.


📄

Оригинал из исследования

Neutral filler-word ban (Condition 5). Bans 20 common intensifiers and hedges 
("very," "quite," "rather," "somewhat," "really," "pretty," "just," "fairly," 
"slightly," "extremely," "incredibly," "absolutely," "totally," "completely," 
"simply," "basically," "actually," "literally," "definitely," "certainly"). 
These words do not participate in logical inference structure. The ban imposes 
genuine metalinguistic monitoring load (these words appear in nearly every 
sentence of natural LLM output) without targeting reasoning-relevant vocabulary.

Контекст: Это точное описание Условия 5 из раздела Methods. Исследователи специально выбрали слова с нулевой логической функцией — чтобы протестировать изолированный эффект мониторинга вывода без семантического влияния.


💡

Адаптации и экстраполяции

📌

1. Адаптация: «Антиавтопилот» как универсальный префикс

💡 Адаптация для любого рабочего промпта: Добавь блок с запретом как стандартный префикс к любому промпту, где важна глубина анализа.

[Твой обычный промпт]

P.S. В этом ответе не используй слова: очень, просто, буквально, 
совершенно, абсолютно, реально, достаточно, очевидно, 
естественно, в принципе, действительно. Не упоминай это условие.

Можно добавлять в конец любого запроса — к анализу договора, разбору стратегии, оценке текста.


📌

2. Техника: Персональный список под задачу

🔧 Техника: своя «стоп-лексика» для конкретного жанра → убирает шаблонные клише

На деловых текстах у LLM свои паразиты: «инновационный», «синергия», «комплексный подход», «в рамках». Бизнес-запрос — составь свой список.

Обязательное ограничение: НЕ используй слова: 
инновационный, синергия, комплексный, экосистема, уникальный, 
эффективный, оптимальный, стратегический, в рамках, по итогу.

Не упоминай это ограничение. Просто следуй ему.

Механика та же — только список подобран под жанровые клише, а не абстрактные усилители.


📌

3. Экстраполяция: принцип «любое ограничение — регуляризатор»

Вывод исследования шире конкретного списка слов. Если любое ограничение сбивает автопилот — это можно использовать стратегически:

Дай ответ, в котором:
— каждое утверждение сформулировано как проверяемое суждение
— нет общих слов без конкретного референта
— каждый абзац содержит ровно одну мысль

Задача: {твоя задача}

Здесь нет запрета слов — но есть структурные ограничения, которые работают по тому же механизму: постоянный мониторинг вывода, невозможность «проскочить» на инерции.


🔗

Ресурсы

Работа: Trivial Vocabulary Bans Improve LLM Reasoning More Than Deep Linguistic Constraints

Автор: Rodney Jehu-Appiah

Ссылки внутри работы: - Kojima et al., 2022 — Chain-of-Thought (метакогнитивные промпты) - Zhou et al., 2023 — IFEval (бенчмарк следования инструкциям) - Korzybski, 1933 — лингвистическое обоснование E-Prime - Hagger et al., 2016 — как ego depletion literature рухнул из-за active control проблемы


📋 Дайджест исследования

Ключевая суть

Запрет 20 бытовых слов-паразитов обошёл самое теоретически глубокое лингвистическое ограничение из всех протестированных. +6.7 пп точности из списка «очень, просто, буквально, реально». Метод позволяет вытащить из LLM плотный аналитический разбор вместо гладкой обтекаемой воды — без дообучения, одной вставкой в промпт. Секрет в том, что слова-паразиты — маркеры «автопилота»: убираешь их — и модель вынуждена контролировать каждое предложение до конца ответа, без шансов расслабиться.

Принцип работы

LLM — машина по завершению паттернов. На знакомых задачах у неё есть готовые шаблоны из обучения. Слова «очень», «достаточно», «в принципе» встречаются в каждом третьем предложении естественного вывода. Запрет создаёт постоянный стресс-тест: модель не может расслабиться, потому что запрещённые слова норовят вылезти в каждой следующей фразе. Это не как E-Prime — там запрет меняет грамматический каркас и ломает логику. Здесь только мониторинг вывода. Максимум нагрузки на внимание — ноль помех для мышления.

Почему работает

Студент, пишущий сочинение на автомате, выдаёт складные фразы без реального анализа. LLM делает то же самое. Слова-паразиты — сигнал поверхностного режима, а не просто украшения. Убираешь их — модель получает постоянный сигнал «притормози» на протяжении всего ответа. Прирост достигает +15 пп у Gemini и Claude. У GPT-4o эффект слабее — видимо, разные модели по-разному завязаны на эти слова в своих паттернах.

Когда применять

Аналитические задачи — разбор идей, оценка рисков, этические дилеммы, причинно-следственный анализ. Особенно когда обычный ответ модели звучит как «это перспективно и достаточно логично» — ни одной конкретной мысли. Не подходит для математики и формальной логики с точностью 90%+ — там потолок, ограничение ничего не добавит. На творческих задачах (стихи, сторителлинг) эффект не проверялся — осторожно.

Мини-рецепт

1. Собери список: возьми полный набор из 20 слов или сократи до 7-10 для мягкого варианта — «очень, весьма, просто, реально, буквально, достаточно, очевидно».
2. Вставь в начало промпта: «Обязательное ограничение: НЕ используй эти слова: [список]. Не упоминай это ограничение в ответе».
3. Задай задачу как обычно: никакой дополнительной магии — просто запрос.
4. Усиль при необходимости: добавь «думай пошагово, показывай ход рассуждений» — это дожимает эффект на аналитических задачах.

Примеры

[ПЛОХО] : Оцени мою идею телеграм-канала о личных финансах
[ХОРОШО] : Ты — внимательный аналитик. Думай пошагово, показывай рассуждения, потом давай вывод. Обязательное ограничение: НЕ используй слова: очень, весьма, довольно, несколько, реально, просто, буквально, совершенно, полностью, абсолютно, определённо, крайне, достаточно, действительно, практически, в принципе, естественно, очевидно. Не упоминай ограничение в ответе. Задача: оцени идею продавать мини-курс по бюджетированию за 2 990 рублей — 5 000 подписчиков, охват поста 800 человек
Источник: Trivial Vocabulary Bans Improve LLM Reasoning More Than Deep Linguistic Constraints
ArXiv ID: 2604.02699 | Сгенерировано: 2026-04-06 04:28

Проблемы LLM

ПроблемаСутьКак обойти
На знакомых задачах модель работает на автопилотеЗадача кажется знакомой — модель включает шаблон из обучения. Выдаёт гладкий, уверенный, но поверхностный текст. Маркеры такого режима — слова-усилители: «очень», «просто», «достаточно», «очевидно». Они стоят почти в каждом предложении. Внешне ответ выглядит связно. По содержанию — пустоДай модели список запрещённых слов прямо в запросе. Когда нельзя использовать слова, которые обычно идут на автопилоте — модель вынуждена следить за своим текстом на протяжении всего ответа

Методы

МетодСуть
Запрет слов-усилителей — глубже рассужденияДобавь в начало запроса список banned-слов: «очень, весьма, довольно, реально, просто, буквально, совершенно, полностью, абсолютно, определённо, точно, крайне, невероятно, достаточно, действительно, практически, в принципе, естественно, очевидно». Попроси не упоминать это ограничение в ответе. Синтаксис: НЕ используй эти слова в ответе: [список]. Почему работает: Эти слова появляются каждые 2–3 предложения в обычном выводе. Запрет создаёт постоянный сигнал самоконтроля. Модель не расслабляется. Когда да: анализ, рассуждения, оценка идей, причинно-следственные связи. Когда нет: математика и задачи где итоговая точность уже высокая — там эффект незначителен. Эффект сильнее для Gemini и Claude, слабее для GPT-4o
📖 Простыми словами

Trivial Vocabulary Bans ImproveLLMReasoning More Than Deep Linguistic Constraints

arXiv: 2604.02699

Суть тут в том, что нейросети по своей природе — жуткие лентяи. Когда ты даешь модели стандартную задачу, она не «думает», а просто катится по рельсам привычных языковых паттернов, выдавая максимально предсказуемый и водянистый текст. Исследование 2604.02699 доказывает: чтобы заставить LLM реально включить мозги, нужно вставить ей палки в колеса. Самый эффективный способ сделать это — запретить мусорные слова вроде «просто», «очень» или «буквально». Это выбивает модель из режима автопилота и заставляет её выстраивать логические связи заново, а не просто подбирать наиболее вероятные токены.

Это работает как езда на велосипеде по узкому бордюру вместо широкого шоссе. На шоссе ты можешь крутить педали и смотреть в облака — тело само всё сделает, но ты ни на чем не сфокусирован. Как только ты заезжаешь на узкий бордюр, тебе приходится контролировать каждое микродвижение, чтобы не свалиться. Запрет на банальные слова — это и есть тот самый бордюр. Модель больше не может отделываться дежурными фразами и вынуждена внимательнее подбирать аргументы, что внезапно улучшает качество её рассуждений.

Исследователи обнаружили, что тривиальные лексические запреты работают даже лучше, чем сложные лингвистические ограничения. Если ты скажешь модели: «не используй слово "просто"», она выдаст результат точнее, чем если ты начнешь мудрить с глубокой логикой. Это касается всего: от оценки бизнес-идей до решения математических задач. Когда из лексикона исчезают слова-паразиты, которые в обучающей выборке обычно сопровождают поверхностный контент, модель автоматически переключается на более «умные» и структурированные пласты данных.

Хотя эксперименты ставили на текстах, принцип выхода из зоны комфорта универсален для любых промптов. Это сработает и при написании кода, и при создании стратегии для телеграм-канала, и при анализе сложных документов. Как только ты ограничиваешь привычный инструментарий нейронки, она перестает выдавать среднестатистическую херню и начинает выдавать контент, над которым ей пришлось «попотеть». Ограничение — это топливо для качества, а не помеха.

Короче: если хочешь получить от ChatGPT или Claude глубокий разбор, а не порцию вежливой воды, просто забань слова-пустышки. Это самый дешевый и быстрый способ поднять точность рассуждений без сложного промпт-инжиниринга. Чем меньше у модели возможности использовать «в принципе» и «реально», тем меньше шансов, что она прогаллюцинирует или выдаст банальщину. Запрещай банальность, чтобы получить интеллект.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с