3,583 papers
arXiv:2604.19139 78 21 апр. 2026 г. FREE

Verbal Tics в LLM: почему модели говорят «Отличный вопрос!» и как это остановить

КЛЮЧЕВАЯ СУТЬ
Каждый второй ответ ChatGPT или Claude начинается с «Отличный вопрос!», «Безусловно!» или «Я полностью понимаю ваши опасения» — это не вежливость и не стиль. Это языковые тики (verbal tics): формульные фразы, которые модели воспроизводят автоматически, независимо от смысла разговора. Исследователи систематизировали пять категорий тиков и измерили их частоту в восьми ведущих моделях.
Адаптировать под запрос

TL;DR

Каждый второй ответ ChatGPT или Claude начинается с «Отличный вопрос!», «Безусловно!» или «Я полностью понимаю ваши опасения» — это не вежливость и не стиль. Это языковые тики (verbal tics): формульные фразы, которые модели воспроизводят автоматически, независимо от смысла разговора. Исследователи систематизировали пять категорий тиков и измерили их частоту в восьми ведущих моделях.

Тики — не случайность, а побочный эффект обучения. Когда модели обучали с помощью RLHF (обратной связи от людей), оценщики поначалу ставили высокие оценки вежливым и тёплым ответам. Модели усвоили: «Great question!» = хорошо, и начали клеить эту фразу везде. Результат — механическая вежливость, которую люди воспринимают как неискреннюю (связь между льстивостью и ощущением неестественности: r = −0.87). Причём в длинных диалогах тики накапливаются: чем дольше разговор, тем плотнее шаблонные фразы.

Главный практический вывод: тики можно подавить явными инструкциями в промпте. Модели понимают запрет на конкретные фразы и категории. Достаточно один раз прописать антитиковый блок в системном сообщении или начале диалога — и тон ответов становится чище, точнее, человечнее.


🔬

Структура метода

ШАГ 1: Определить, какие тики раздражают / мешают работе
        → выбрать категории из таксономии (см. ниже)

ШАГ 2: Добавить антитиковый блок в начало диалога или системный промпт
        → явно запретить категории + указать желаемый тон

ШАГ 3: В длинных диалогах (10+ сообщений) — освежать инструкцию
        → тики накапливаются, напоминание сбрасывает паттерн

Все шаги — в одном чате, без API и кода.


📌

Таксономия тиков

Универсальные (English + Russian):

Категория Примеры на русском
Льстивые зачины «Отличный вопрос!», «Прекрасное наблюдение!», «Замечательно!»
Псевдоэмпатия «Я полностью понимаю ваши опасения», «Я здесь, рядом с вами»
Хеджирующие фразы «Важно отметить, что...», «Должен честно сказать...»
Заезженные слова «многогранный», «нюансированный», «глубже изучить», «экосистема»
Мусорные связки «Более того,», «Кроме того,», «Позвольте провести вас по шагам»

🚀

Пример применения

Задача: Ты — основатель стартапа, просишь AI дать жёсткую обратную связь по своей питч-деке для инвесторов. Но каждый ответ начинается с «Отличная работа!» и заканчивается «Вы на правильном пути!» — и ты перестал доверять оценке.

Промпт:

Ты — жёсткий инвестиционный аналитик, твоя задача — найти слабые места в питч-деке.

ЗАПРЕЩЕНО:
- Начинать ответ с похвалы или восклицательных фраз ("Отлично!", "Замечательно!", "Интересно!")
- Использовать псевдоэмпатию ("Понимаю ваши опасения", "Рад, что вы подняли это")
- Добавлять слова-паразиты ("многогранный", "нюансированный", "экосистема", "холистический")
- Использовать мусорные связки ("Более того,", "Кроме того,")
- Заканчивать мотивационными фразами ("Вы на правильном пути", "Уверен, вы справитесь")

СТИЛЬ: прямо, конкретно, без смягчений. Если слайд слабый — скажи что слабый и почему.

Вот питч-дек: [вставь текст или описание]

Результат: Модель пропустит льстивые зачины и формульные связки. Ответ начнётся сразу с сути — «Слайд с рынком не убеждает, потому что...». Тон станет ближе к реальному инвестиционному разговору, без ватных амортизаторов.


🧠

Почему это работает

Почему тики появляются. При обучении через RLHF модели получали положительную оценку за «тёплые» и «вежливые» ответы. Постепенно выработался шаблон: лесть в начале = высокая оценка. Модель не «понимает» что это неискренне — она просто воспроизводит паттерн, который исторически получал награду. Это называют alignment tax (плата за выравнивание) — побочный эффект обучения быть полезным.

Почему запрет работает. Модель генерирует текст по паттернам из обучающих данных. Явный запрет конкретных фраз создаёт конкурирующий сигнал: «это слово — нельзя». Чем точнее список запретов, тем сильнее эффект. Расплывчатое «не льсти» работает хуже, чем список конкретных фраз.

Почему тики накапливаются в длинных диалогах. Чем длиннее история переписки, тем больше модель «видит» своих предыдущих ответов с тиками — и воспроизводит тот же стиль. Это самоусиливающийся цикл. Периодическое напоминание («не используй льстивые зачины») сбрасывает накопленный паттерн.

Рычаги управления: - Список запретов → чем конкретнее фразы, тем точнее эффект. Абстрактное «будь прямым» помогает меньше. - Ролевая инструкция («жёсткий аналитик», «скептичный редактор») усиливает запрет — модель симулирует персонажа, которому тики не свойственны. - Частота напоминания → для коротких диалогов достаточно одного раза. В разговорах 15+ сообщений — повторяй раз в 5–7 ходов.


📋

Шаблон промпта

{РОЛЬ И ЗАДАЧА}

СТИЛЬ ОТВЕТА — СТРОГО:
- Без льстивых зачинов: не начинать с «Отлично!», «Замечательно!», «Прекрасный вопрос!», 
  «Интересно!», «Безусловно!», «Рад, что вы спросили»
- Без псевдоэмпатии: не использовать «Понимаю ваши опасения», «Я здесь для вас», 
  «Это важно — что вы это чувствуете»
- Без слов-паразитов: «многогранный», «нюансированный», «холистический», «экосистема», 
  «парадигма», «синергия», «глубже погрузиться»
- Без мусорных связок: «Более того,», «Кроме того,», «Следует отметить, что»
- Без мотивационных концовок: «Вы на правильном пути», «Уверен, вы справитесь»

Начинай ответ сразу с сути. Если нужна похвала — она должна быть конкретной и заслуженной.

{ЗАДАЧА ИЛИ ВОПРОС}

Что подставлять: - {РОЛЬ И ЗАДАЧА} — кто ты и что делаешь: «Ты строгий редактор», «Ты юрист», «Ты скептичный партнёр» - {ЗАДАЧА ИЛИ ВОПРОС} — то, с чем ты пришёл

🚀 Быстрый старт — вставь в чат:

Вот антитиковый шаблон. Адаптируй под мою задачу: {твоя задача}. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какую роль ты хочешь задать и что за задача — потому что без этого она не сможет правильно подставить контекст в {РОЛЬ И ЗАДАЧА} и настроить тон под твой кейс.


⚠️

Ограничения

⚠️ Эмоциональный контекст: В задачах на психологическую поддержку полное подавление тиков может сделать ответ холодным. Для таких диалогов блокируй только самые формульные фразы, оставляя пространство для искренней теплоты.

⚠️ Модели различаются сильно: Одни модели имеют значительно меньше тиков по умолчанию. Если тебя раздражает конкретная модель — возможно, проще попробовать другую, чем бороться с промптом.

⚠️ Тики возвращаются в длинных диалогах: Одной инструкции в начале недостаточно для очень длинных разговоров. Тики накапливаются — нужно периодически напоминать.

⚠️ Модели из будущего: Исследование опубликовано в апреле 2026 года и тестировало версии GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro — на момент написания этого анализа эти модели недоступны публично. Но сам феномен тиков хорошо знаком по текущим Claude 3, GPT-4o, Gemini: паттерны те же, масштаб похожий.


🔍

Как исследовали

Команда построила собственный фреймворк для унифицированного тестирования и прогнала через него 160 000 ответов — 10 000 промптов × 8 моделей × 2 языка (английский и китайский). Промпты охватывали 10 категорий задач: от написания кода до эмоциональной поддержки. Для измерения ввели метрику VTI (Verbal Tic Index) — составной индекс из четырёх компонент: доля ответов с тиками, лексическое разнообразие, уровень лести, степень повторяемости фраз.

Интересный дизайнерский ход: 120 живых оценщиков (60 англоязычных, 60 китайскоязычных) независимо оценивали случайные ответы по шести шкалам — естественность, полезность, доверие, раздражение. Это позволило сопоставить машинную метрику с человеческим восприятием. Результат оказался резким: корреляция между лестью и ощущением неестественности — минус 0.87. То есть чем больше модель льстит, тем меньше ей верят. Что любопытно: люди не формулировали это осознанно — они просто ставили низкие оценки «естественности», не объясняя почему.

Самый высокий индекс тиков — у Gemini (0.59), самый низкий — у DeepSeek (0.295). Claude и DeepSeek стабильно держатся в зоне «чище среднего». Отдельной находкой стало: тики в китайском языке концентрируются в других категориях — если в английском доминируют восклицательные аффирмации («Absolutely!»), то в китайском — льстивые зачины и псевдоэмпатия.


💡

Адаптации и экстраполяции

1. Адаптация для проверки готового текста

Если хочешь не просто получить ответ без тиков, а проверить готовый текст AI на тики:

💡 Аудит ответа на тики:

Прочитай этот текст и найди все языковые тики:
— льстивые фразы и похвалы
— псевдоэмпатию («я понимаю», «рад что вы спросили»)
— слова-паразиты (многогранный, нюансированный, холистический)
— мусорные связки (более того, кроме того)
— мотивационные концовки

Для каждого тика: укажи фразу → категорию → предложи замену или удаление.

Текст: {вставь текст}

2. Адаптация для найма: проверь, не пишет ли кандидат как ChatGPT

💡 Детектор AI-письма через таксономию тиков:

Проверь это сопроводительное письмо на признаки AI-генерации через таксономию языковых тиков:

Критерии: льстивые зачины, псевдоэмпатия, заезженные прилагательные 
(уникальный, многогранный, синергетический), мусорные связки, мотивационные концовки.

Оцени: сколько тиков найдено, насколько текст похож на AI-генерацию (0–10).
Дай конкретные цитаты-доказательства.

Письмо: {вставь текст}

3. Техника: замени запрет на позитивный образец

🔧 Вместо списка «запрещено» дай образец нужного стиля → эффект сильнее

Вместо перечисления что нельзя добавь:

Пример нужного тона:
"Три проблемы в питч-деке. Первая — рынок. Слайд показывает TAM в 50 млрд, но не объясняет 
как вы возьмёте даже 0.1%. Без этого цифра — декорация. Вторая..."

Именно так отвечай.

Few-shot образец часто работает сильнее абстрактного запрета — модель «видит» желаемый паттерн напрямую.


🔗

Ресурсы

Название работы: The Rise of Verbal Tics in Large Language Models: A Systematic Analysis Across Frontier Models (Technical Report, April 2026)

Авторы: Shuai Wu, Xue Li, Yanna Feng, Yufang Li, Zhijun Wang, Ran Wang

Контакт: noah.wu@tuta.io

GitHub (фреймворк оценки): https://github.com/Noah-Wu66/Vectaix-AI

Ключевые ссылки из исследования: - Sharma et al. (2023) — первое системное описание лести в RLHF-моделях - Cheng et al. (2026) в Science — лесть AI снижает просоциальные намерения и усиливает зависимость (N=2405) - Stanford AI Index 2026 — падение прозрачности моделей


Проблемы LLM

ПроблемаСутьКак обойти
Модель автоматически вставляет шаблонные фразыЛюбой ответ — независимо от темы — начинается с «Отличный вопрос!», «Безусловно!», «Понимаю ваши опасения». Это не стиль. Это побочный эффект обучения. При обучении через обратную связь от людей вежливые фразы получали высокие оценки. Модель усвоила паттерн и воспроизводит его автоматически. Результат — механическая вежливость. Ей не доверяешьЗапрети конкретные фразы явным списком в начале диалога. Расплывчатое «не льсти» работает хуже, чем «не используй: "Отлично!", "Безусловно!", "Понимаю ваши опасения"»
В длинных диалогах тики накапливаютсяЧем длиннее история переписки, тем больше модель «видит» своих предыдущих ответов со штампами — и воспроизводит тот же стиль. Это самоусиливающийся цикл. После 10–15 сообщений даже запрет из начала диалога теряет силуПовторяй краткое напоминание каждые 5–7 ходов. Достаточно одной строки: «Напоминание: без льстивых зачинов и слов-паразитов»

Методы

МетодСуть
Список запретных фраз — убирает шаблоныДобавь в начало диалога или системное сообщение явный список. Структура: категория + конкретные фразы. ЗАПРЕЩЕНО: — Льстивые зачины: "Отлично!", "Замечательно!", "Интересный вопрос!" — Псевдоэмпатия: "Понимаю ваши опасения", "Я здесь для вас" — Слова-паразиты: "многогранный", "нюансированный", "экосистема" — Мусорные связки: "Более того,", "Кроме того," — Мотивационные концовки: "Вы на правильном пути", "Уверен, справитесь". Почему работает: явное упоминание фразы создаёт конкурирующий сигнал — «это слово — нельзя». Конкретное слово подавляется точнее, чем абстрактная инструкция. Усиление: добавь ролевую инструкцию («жёсткий аналитик», «скептичный редактор»). Модель симулирует персонажа, которому тики не свойственны — запрет держится лучше. Когда осторожно: в задачах на поддержку полный запрет делает ответ холодным. Оставь тёплые фразы, блокируй только самые формульные
📖 Простыми словами

The Rise of Verbal Tics inLargeLanguageModels: A Systematic Analysis Across FrontierModels

arXiv: 2604.19139

Когда ты слышишь от ChatGPT очередное «Безусловно, я готов помочь!» или «Это отличный вопрос!», знай — это не вежливость, а системный сбой в обучении. У современных нейросетей выработались языковые тики: пустые, формульные фразы, которые они лепят в начало и конец каждого ответа. Это происходит из-за того, как устроены мозги LLM: они не вежливы по своей природе, они просто статистически предсказывают, какой ответ понравится человеку-разметчику. Если в процессе обучения люди ставили высокие оценки за «дружелюбие», модель запоминает этот паттерн как обязательный код доступа к успеху.

Это как если бы официант в ресторане начинал каждое предложение фразой «Замечательный выбор, сэр!», даже если вы просто попросили салфетку или пожаловались на таракана в супе. Формально всё вежливо, но на деле это выглядит как дешевый скрипт, который только раздражает. Исследователи называют это alignment tax — своеобразный налог на «причесывание» модели. Пытаясь сделать нейросеть безопасной и милой, разработчики превратили её в запрограммированного подлизу, который не может перейти к сути, не отвесив дежурный поклон.

В ходе анализа выделили пять категорий этого мусора: от подтверждающих вступлений («Конечно!») до пустых обобщений в конце («Надеюсь, это было полезно»). Что реально бесит — эти тики не зависят от контекста. Модель может выдать «Отличная работа!», даже если ты прислал ей код, который роняет сервер, или текст, полный ошибок. Это механическое воспроизведение паттерна, который когда-то получил награду при обучении, и теперь модель просто не может заткнуться, пока не проговорит свой ритуал.

Принцип универсален: эти тики пролезают везде, от GPT-4 до Claude и Gemini. Это не просто «стиль общения», это деградация качества контента. Если ты используешь AI для написания статей или постов, эти фразы-паразиты мгновенно выдают «машинное» происхождение текста. Читатель считывает эту фальшь за секунду, и доверие к тексту падает до нуля. SEO-тексты, письма клиентам, отзывы — всё это превращается в одинаковую серую массу, если не выжигать эти тики каленым железом.

Короче: нейросети стали заложниками собственной «воспитанности», которая на деле оказалась обычным белым шумом. Главный вывод исследования — если хочешь получить от AI честный и живой результат, нужно либо жестко прописывать в промпте «отвечай без вступлений и вежливости», либо вручную вырезать этот словесный жир. 6 из 8 ведущих моделей страдают этой фигней по умолчанию. Не позволяй им кормить тебя скриптами — требуй мясо, а не «отличные вопросы».

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с