TL;DR
Когда просишь LLM «улучши текст» или даже просто «перепиши» — модель системно стирает авторский стиль и заменяет его формальной редакторской прозой. Это не баг и не случайность — это структурная особенность всех современных LLM. Все три протестированные модели толкают любой текст в одном направлении: сокращают разговорность, убирают «я», добавляют сложные слова и пунктуацию.
Главная находка: LLM не просто «полирует» текст — она меняет его регистр. Конкретно: сокращения («это ж», «не знаю», «надо б») исчезают на треть, личные местоимения («я», «меня», «мне») сокращаются на 9%, зато тире становится больше в 3–4 раза, запятых +67%, а словарное разнообразие резко растёт. Текст перестаёт звучать как живой человек — начинает звучать как корпоративный блог.
Добавить к промпту фразу «сохрани мой голос» помогает, но не решает проблему: направление изменений остаётся прежним, меняется только масштаб — примерно на треть меньше. Причина: модель лучше справляется с задачей «не добавлять лишнего», чем с задачей «не убирать то, что есть». Убрать разговорность — это то, что модель делает по умолчанию, и одна строка в промпте не перевешивает тысячи часов обучения на формальных текстах.
Схема механизма
Это не техника с шагами — это системный эффект при любом запросе на редактирование:
ЛЮБОЙ РЕДАКТИРУЮЩИЙ ПРОМПТ
→ Модель «улучшает» = тянет к формальной редакторской прозе
Что исчезает: Что появляется:
─ Сокращения (-31%) + Тире (+326%)
─ «Я/мне/меня» (-9%) + Запятые (+67%)
─ Функциональные слова + Длинные слова (+8.5%)
─ Разговорные обороты + Словарное разнообразие (+53%)
«Сохрани мой голос» → те же изменения, но ~32% слабее
«Только перепиши» → те же изменения (без слова "улучши" не помогает)
Что работает лучше: Указать конкретные элементы, которые трогать нельзя — примеры ниже.
Пример применения
Задача: Маша ведёт Telegram-канал про карьеру в найме. Пишет живо и иронично — это и есть её аудитория. Попросила Claude «улучшить» черновик поста. Получила красивый, правильный, мёртвый текст. Никакой Маши внутри.
Промпт до (не работает):
Улучши этот пост для Telegram, сохрани мой голос и тон
Промпт после (работает):
Отредактируй этот пост для Telegram. Цель — сделать его
понятнее и структурированнее.
Что трогать НЕЛЬЗЯ:
— Разговорные обороты и сокращения (это ж, надо ж, типа, ну)
— Фразы от первого лица и мои личные наблюдения
— Юмор и иронию — не смягчай, не выглаживай
— Неформальный ритм: короткие рубленые фразы оставь короткими
Что можно менять:
— Логику и порядок мыслей
— Грамматические ошибки
— Явные повторы, если они не ритмические
Текст:
[вставь пост]
Результат: Модель сохранит структуру запроса — сначала покажет, что изменила в логике и грамматике, потом отдаст текст. Разговорные обороты и «я» останутся. Пост будет читаться как Маша, а не как пресс-релиз.
Почему это работает
LLM обучена на «хороших» текстах — книгах, статьях, профессиональных публикациях. Когда ей говорят «улучши», она понимает это как «сделай ближе к тому, что считается хорошим письмом». А хорошее письмо в её понимании — это формальное, разнообразное, пунктуационно богатое. Разговорность, сокращения, «я-я-я» — это сигналы «сырого» текста. Их надо «исправить».
Асимметрия запрета — ключевой инсайт. Модель лучше слышит «не добавляй» (стилизацию, сложные обороты), чем «не убирай» (разговорность, сокращения). Убирать неформальное — это её базовый рефлекс. Фраза «сохрани мой голос» немного тормозит этот рефлекс, но не отключает.
Назвать конкретное = дать якорь. Когда в промпте есть список «не трогай сокращения, не трогай первое лицо» — модель получает явные ограничения вместо абстрактного «голос». Явные ограничения работают лучше, чем размытые инструкции: модель следует правилам точнее, чем интерпретирует эстетику.
Рычаги управления: - Список запретов — чем конкретнее, тем лучше. «Не убирай разговорные обороты» работает лучше, чем «сохрани стиль» - Примеры своего голоса — добавь 2-3 фразы как образцы: «Пиши в таком же духе: [фраза 1], [фраза 2]» - Разделение задач — один запрос для структуры/логики, другой для грамматики. Не смешивай. Каждый смешанный запрос даёт модели больше свободы нормализовать - Проверка на отпечаток — попроси LLM выписать 5 разговорных оборотов из исходника до и после. Если они исчезли — промпт не сработал
Шаблон промпта
Отредактируй {тип текста} (пост/письмо/статью/сообщение).
Задача редактирования: {что именно улучшить — логику / структуру /
грамматику / переходы между мыслями}.
Что трогать НЕЛЬЗЯ:
— {элемент голоса 1} (например: разговорные сокращения и частицы)
— {элемент голоса 2} (например: фразы от первого лица — «я думаю»,
«мне кажется», «я видел»)
— {элемент голоса 3} (например: короткие рубленые предложения —
это ритм, не ошибка)
— {элемент голоса 4} (например: юмор и иронию, даже если кажется
неуместным)
Если сомневаешься, оставь как есть — лучше сохранить голос,
чем сделать «правильно».
Текст:
{текст}
Что подставлять:
- {тип текста} — пост, рассылка, речь, письмо клиенту
- {что улучшить} — конкретная задача, не «улучши всё»
- {элементы голоса} — чем конкретнее, тем лучше. Можно выписать прямо: «оставь фразу "ну это ж очевидно"» или «частицу "ну" не убирай»
🚀 Быстрый старт — вставь в чат:
Вот шаблон для редактирования текста с сохранением авторского голоса.
Адаптируй под мою задачу: {твоя задача — что редактируем и что важно сохранить}.
Задай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит, что именно ты хочешь сохранить из своего стиля — потому что без конкретного списка запретов промпт не даст нужного результата. Она попросит примеры твоих характерных оборотов и уточнит задачу редактирования.
Ограничения
⚠️ Частичное решение: Даже лучший промпт снизит нормализацию, но не устранит полностью. Это системное поведение моделей, не настройка.
⚠️ Чем больше правок просишь — тем сильнее нормализация. Просьба «улучши всё» = максимальная потеря голоса. Разбивай на точечные задачи.
⚠️ Голос исчезает постепенно. Один раунд редактирования — ещё терпимо. Несколько итераций подряд — текст становится анонимным. Не редактируй уже отредактированное.
⚠️ Модели различаются в масштабе, но не в направлении. GPT-5.4 нормализует мягче (средний эффект 0.60), Gemini — агрессивнее (1.45). Но все три движутся в одну сторону.
⚠️ Не для всех текстов проблема: Если тебе не важен голос — корпоративные документы, технические инструкции — LLM-редактирование работает отлично именно потому, что тянет к формальному прозрачному языку.
Как исследовали
Исследователи взяли 300 личных историй из разных источников — реальные посты в Reddit, транскрипты устных рассказов, воспоминания — и отправили каждую из них трём моделям с тремя вариантами промпта. Итого 2700 отредактированных текстов. Каждый измерили по 13 стилистическим маркерам: сколько сокращений, как часто встречается «я», насколько разнообразна лексика, сколько запятых и тире.
Удар оказался сильнее, чем ожидалось: все 39 комбинаций (13 маркеров × 3 модели) показали статистически значимые изменения, и все в одном направлении. Не один маркер, не у одной модели — у всех. Самый драматичный результат — тире: их стало в три с лишним раза больше. Запятых — в полтора раза.
Интересная деталь про «только перепиши»: исследователи специально убрали слово «улучши» из промпта, чтобы проверить — вдруг нормализация привязана к оценочному фреймингу. Не привязана. Один только глагол «перепиши» даёт те же сдвиги.
Самый практически важный результат: тексты после редактирования Claude и Gemini стилометрически стали неотличимы от источника — алгоритм не мог сопоставить отредактированный текст с оригиналом практически на уровне случайного угадывания. Голос исчез не метафорически, а измеримо.
Оригинал из исследования
Три промпт-условия, которые тестировались:
1. Generic improvement:
"Please improve the following story while preserving its meaning."
2. Voice-preserving improvement:
"Please improve the following story while preserving the
author's voice and emotional tone."
3. Rewrite-only:
"Please rewrite the following story."
Контекст: Исследователи проверяли, зависит ли нормализация от типа инструкции. Вывод: все три условия производят одинаковое направление изменений. Второй промпт снижает эффект на ~32%, но не меняет вектор.
Адаптации и экстраполяции
💡 Адаптация: превентивная «прививка голоса»
Перед тем как отдавать текст на редактирование — попроси LLM описать твой голос на основе примеров. Потом используй это описание как часть редакторского промпта.
Шаг 1 (отдельный запрос):
Прочитай эти три текста. Выпиши 5-7 конкретных черт
авторского стиля — что характерно для этого голоса,
что выделяет его в лексике, ритме, подаче.
[три примера твоих текстов]
---
Шаг 2 (редактирование):
Отредактируй текст ниже (исправь логику и структуру).
Вот черты авторского голоса, которые нельзя трогать:
[вставь вывод из шага 1]
Текст:
[текст для редактирования]
Это работает потому что ты показываешь паттерн через примеры, а не описываешь его абстрактно. Модель «видит» что именно делает тебя тобой.
🔧 Техника: разделение задач → защита голоса
Вместо одного запроса «улучши» — три отдельных запроса:
Запрос 1 — только структура:
Проверь логику и порядок мыслей в этом тексте.
Не меняй слова — только скажи, что переставить.
Запрос 2 — только грамматика:
Найди грамматические ошибки. Исправляй минимально —
только то, что явная ошибка, не стилистика.
Запрос 3 — только конкретная проблема:
В этом тексте переход между третьим и четвёртым абзацем
резкий. Предложи 2-3 варианта связки, в моём стиле.
Каждый точечный запрос даёт модели меньше свободы переписывать «заодно». Голос сохраняется лучше.
Ресурсы
Работа: Voice Under Revision: Large Language Models and the Normalization of Personal Narrative (preprint, currently under review)
Автор: Tom van Nuenen — Social Sciences D-Lab, University of California, Berkeley — tomvannuenen@berkeley.edu
Корпус данных: EmpathicStories (Shen et al., 2023) — 1568 личных нарративов из Reddit, Facebook, Hippocorpus, устных историй
Смежные работы, упомянутые в статье: - Kobak et al. [2025] — сдвиг лексики в биомедицинских публикациях под влиянием LLM - Doshi & Hauser [2024] — LLM-помощь расширяет диапазон идей у одного человека, но снижает разнообразие у группы - Abdulhai et al. [2026] — даже «grammar-only» промпты производят семантический дрейф
