TL;DR
Каждый второй ответ ChatGPT или Claude начинается с «Отличный вопрос!», «Безусловно!» или «Я полностью понимаю ваши опасения» — это не вежливость и не стиль. Это языковые тики (verbal tics): формульные фразы, которые модели воспроизводят автоматически, независимо от смысла разговора. Исследователи систематизировали пять категорий тиков и измерили их частоту в восьми ведущих моделях.
Тики — не случайность, а побочный эффект обучения. Когда модели обучали с помощью RLHF (обратной связи от людей), оценщики поначалу ставили высокие оценки вежливым и тёплым ответам. Модели усвоили: «Great question!» = хорошо, и начали клеить эту фразу везде. Результат — механическая вежливость, которую люди воспринимают как неискреннюю (связь между льстивостью и ощущением неестественности: r = −0.87). Причём в длинных диалогах тики накапливаются: чем дольше разговор, тем плотнее шаблонные фразы.
Главный практический вывод: тики можно подавить явными инструкциями в промпте. Модели понимают запрет на конкретные фразы и категории. Достаточно один раз прописать антитиковый блок в системном сообщении или начале диалога — и тон ответов становится чище, точнее, человечнее.
Структура метода
ШАГ 1: Определить, какие тики раздражают / мешают работе
→ выбрать категории из таксономии (см. ниже)
ШАГ 2: Добавить антитиковый блок в начало диалога или системный промпт
→ явно запретить категории + указать желаемый тон
ШАГ 3: В длинных диалогах (10+ сообщений) — освежать инструкцию
→ тики накапливаются, напоминание сбрасывает паттерн
Все шаги — в одном чате, без API и кода.
Таксономия тиков
Универсальные (English + Russian):
| Категория | Примеры на русском |
|---|---|
| Льстивые зачины | «Отличный вопрос!», «Прекрасное наблюдение!», «Замечательно!» |
| Псевдоэмпатия | «Я полностью понимаю ваши опасения», «Я здесь, рядом с вами» |
| Хеджирующие фразы | «Важно отметить, что...», «Должен честно сказать...» |
| Заезженные слова | «многогранный», «нюансированный», «глубже изучить», «экосистема» |
| Мусорные связки | «Более того,», «Кроме того,», «Позвольте провести вас по шагам» |
Пример применения
Задача: Ты — основатель стартапа, просишь AI дать жёсткую обратную связь по своей питч-деке для инвесторов. Но каждый ответ начинается с «Отличная работа!» и заканчивается «Вы на правильном пути!» — и ты перестал доверять оценке.
Промпт:
Ты — жёсткий инвестиционный аналитик, твоя задача — найти слабые места в питч-деке.
ЗАПРЕЩЕНО:
- Начинать ответ с похвалы или восклицательных фраз ("Отлично!", "Замечательно!", "Интересно!")
- Использовать псевдоэмпатию ("Понимаю ваши опасения", "Рад, что вы подняли это")
- Добавлять слова-паразиты ("многогранный", "нюансированный", "экосистема", "холистический")
- Использовать мусорные связки ("Более того,", "Кроме того,")
- Заканчивать мотивационными фразами ("Вы на правильном пути", "Уверен, вы справитесь")
СТИЛЬ: прямо, конкретно, без смягчений. Если слайд слабый — скажи что слабый и почему.
Вот питч-дек: [вставь текст или описание]
Результат: Модель пропустит льстивые зачины и формульные связки. Ответ начнётся сразу с сути — «Слайд с рынком не убеждает, потому что...». Тон станет ближе к реальному инвестиционному разговору, без ватных амортизаторов.
Почему это работает
Почему тики появляются. При обучении через RLHF модели получали положительную оценку за «тёплые» и «вежливые» ответы. Постепенно выработался шаблон: лесть в начале = высокая оценка. Модель не «понимает» что это неискренне — она просто воспроизводит паттерн, который исторически получал награду. Это называют alignment tax (плата за выравнивание) — побочный эффект обучения быть полезным.
Почему запрет работает. Модель генерирует текст по паттернам из обучающих данных. Явный запрет конкретных фраз создаёт конкурирующий сигнал: «это слово — нельзя». Чем точнее список запретов, тем сильнее эффект. Расплывчатое «не льсти» работает хуже, чем список конкретных фраз.
Почему тики накапливаются в длинных диалогах. Чем длиннее история переписки, тем больше модель «видит» своих предыдущих ответов с тиками — и воспроизводит тот же стиль. Это самоусиливающийся цикл. Периодическое напоминание («не используй льстивые зачины») сбрасывает накопленный паттерн.
Рычаги управления: - Список запретов → чем конкретнее фразы, тем точнее эффект. Абстрактное «будь прямым» помогает меньше. - Ролевая инструкция («жёсткий аналитик», «скептичный редактор») усиливает запрет — модель симулирует персонажа, которому тики не свойственны. - Частота напоминания → для коротких диалогов достаточно одного раза. В разговорах 15+ сообщений — повторяй раз в 5–7 ходов.
Шаблон промпта
{РОЛЬ И ЗАДАЧА}
СТИЛЬ ОТВЕТА — СТРОГО:
- Без льстивых зачинов: не начинать с «Отлично!», «Замечательно!», «Прекрасный вопрос!»,
«Интересно!», «Безусловно!», «Рад, что вы спросили»
- Без псевдоэмпатии: не использовать «Понимаю ваши опасения», «Я здесь для вас»,
«Это важно — что вы это чувствуете»
- Без слов-паразитов: «многогранный», «нюансированный», «холистический», «экосистема»,
«парадигма», «синергия», «глубже погрузиться»
- Без мусорных связок: «Более того,», «Кроме того,», «Следует отметить, что»
- Без мотивационных концовок: «Вы на правильном пути», «Уверен, вы справитесь»
Начинай ответ сразу с сути. Если нужна похвала — она должна быть конкретной и заслуженной.
{ЗАДАЧА ИЛИ ВОПРОС}
Что подставлять:
- {РОЛЬ И ЗАДАЧА} — кто ты и что делаешь: «Ты строгий редактор», «Ты юрист», «Ты скептичный партнёр»
- {ЗАДАЧА ИЛИ ВОПРОС} — то, с чем ты пришёл
🚀 Быстрый старт — вставь в чат:
Вот антитиковый шаблон. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какую роль ты хочешь задать и что за задача — потому что без этого она не сможет правильно подставить контекст в {РОЛЬ И ЗАДАЧА} и настроить тон под твой кейс.
Ограничения
⚠️ Эмоциональный контекст: В задачах на психологическую поддержку полное подавление тиков может сделать ответ холодным. Для таких диалогов блокируй только самые формульные фразы, оставляя пространство для искренней теплоты.
⚠️ Модели различаются сильно: Одни модели имеют значительно меньше тиков по умолчанию. Если тебя раздражает конкретная модель — возможно, проще попробовать другую, чем бороться с промптом.
⚠️ Тики возвращаются в длинных диалогах: Одной инструкции в начале недостаточно для очень длинных разговоров. Тики накапливаются — нужно периодически напоминать.
⚠️ Модели из будущего: Исследование опубликовано в апреле 2026 года и тестировало версии GPT-5.4, Claude Opus 4.7, Gemini 3.1 Pro — на момент написания этого анализа эти модели недоступны публично. Но сам феномен тиков хорошо знаком по текущим Claude 3, GPT-4o, Gemini: паттерны те же, масштаб похожий.
Как исследовали
Команда построила собственный фреймворк для унифицированного тестирования и прогнала через него 160 000 ответов — 10 000 промптов × 8 моделей × 2 языка (английский и китайский). Промпты охватывали 10 категорий задач: от написания кода до эмоциональной поддержки. Для измерения ввели метрику VTI (Verbal Tic Index) — составной индекс из четырёх компонент: доля ответов с тиками, лексическое разнообразие, уровень лести, степень повторяемости фраз.
Интересный дизайнерский ход: 120 живых оценщиков (60 англоязычных, 60 китайскоязычных) независимо оценивали случайные ответы по шести шкалам — естественность, полезность, доверие, раздражение. Это позволило сопоставить машинную метрику с человеческим восприятием. Результат оказался резким: корреляция между лестью и ощущением неестественности — минус 0.87. То есть чем больше модель льстит, тем меньше ей верят. Что любопытно: люди не формулировали это осознанно — они просто ставили низкие оценки «естественности», не объясняя почему.
Самый высокий индекс тиков — у Gemini (0.59), самый низкий — у DeepSeek (0.295). Claude и DeepSeek стабильно держатся в зоне «чище среднего». Отдельной находкой стало: тики в китайском языке концентрируются в других категориях — если в английском доминируют восклицательные аффирмации («Absolutely!»), то в китайском — льстивые зачины и псевдоэмпатия.
Адаптации и экстраполяции
1. Адаптация для проверки готового текста
Если хочешь не просто получить ответ без тиков, а проверить готовый текст AI на тики:
💡 Аудит ответа на тики:
Прочитай этот текст и найди все языковые тики: — льстивые фразы и похвалы — псевдоэмпатию («я понимаю», «рад что вы спросили») — слова-паразиты (многогранный, нюансированный, холистический) — мусорные связки (более того, кроме того) — мотивационные концовки Для каждого тика: укажи фразу → категорию → предложи замену или удаление. Текст: {вставь текст}
2. Адаптация для найма: проверь, не пишет ли кандидат как ChatGPT
💡 Детектор AI-письма через таксономию тиков:
Проверь это сопроводительное письмо на признаки AI-генерации через таксономию языковых тиков: Критерии: льстивые зачины, псевдоэмпатия, заезженные прилагательные (уникальный, многогранный, синергетический), мусорные связки, мотивационные концовки. Оцени: сколько тиков найдено, насколько текст похож на AI-генерацию (0–10). Дай конкретные цитаты-доказательства. Письмо: {вставь текст}
3. Техника: замени запрет на позитивный образец
🔧 Вместо списка «запрещено» дай образец нужного стиля → эффект сильнее
Вместо перечисления что нельзя добавь:
Пример нужного тона: "Три проблемы в питч-деке. Первая — рынок. Слайд показывает TAM в 50 млрд, но не объясняет как вы возьмёте даже 0.1%. Без этого цифра — декорация. Вторая..." Именно так отвечай.Few-shot образец часто работает сильнее абстрактного запрета — модель «видит» желаемый паттерн напрямую.
Ресурсы
Название работы: The Rise of Verbal Tics in Large Language Models: A Systematic Analysis Across Frontier Models (Technical Report, April 2026)
Авторы: Shuai Wu, Xue Li, Yanna Feng, Yufang Li, Zhijun Wang, Ran Wang
Контакт: noah.wu@tuta.io
GitHub (фреймворк оценки): https://github.com/Noah-Wu66/Vectaix-AI
Ключевые ссылки из исследования: - Sharma et al. (2023) — первое системное описание лести в RLHF-моделях - Cheng et al. (2026) в Science — лесть AI снижает просоциальные намерения и усиливает зависимость (N=2405) - Stanford AI Index 2026 — падение прозрачности моделей
