3,583 papers
arXiv:2602.16162 74 18 фев. 2026 г. FREE

Почему ChatGPT пишет скучно: «налог выравнивания» и техника инъекции неожиданности

КЛЮЧЕВАЯ СУТЬ
Режим 'глубоких рассуждений' (extended thinking) в o1 и DeepSeek-R1 даёт ещё более предсказуемые тексты — не живее. Исследователи замерили: тексты профессиональных писателей в 2–4 раза 'неожиданнее' с точки зрения самой модели, чем то, что та выдаёт без подсказки. Техника инъекции неожиданности позволяет писать нешаблонные тексты — без смены модели и без дообучения. Скажи модели прямо о её слабости и попроси пометить каждое предсказуемое место — она переключается с 'выбери вероятное' на 'выбери неожиданное, но убедительное'. В тексте на 200 слов это 3–5 конкретных замен, которые делают разницу.
Адаптировать под запрос

TL;DR

Обучение на человеческих предпочтениях (RLHF) специально учит модели избегать неожиданных, рискованных, двусмысленных слов и поворотов — потому что рецензенты ценят ясность и безопасность. Результат: каждое следующее слово модель выбирает по принципу «что статистически ожидаемо в этом контексте» — и так на каждом шаге. Текст выходит гладким, грамотным и мёртвым.

Исследователи замерили это через теоретико-информационный анализ: тексты профессиональных писателей оказались в 2–4 раза "неожиданнее" с точки зрения самой модели, чем то, что она генерирует сама. Это не баг конкретной модели — это системный эффект обучения. Причём моды с «думанием» (reasoning/thinking) делают хуже, не лучше: налог на предсказуемость у них ещё выше, чем у обычных instruct-моделей.

Фиксировать это архитектурно из чата нельзя. Но можно частично обойти: попросить модель работать явно против своего встроенного bias — замечать каждый предсказуемый выбор и заменять его неожиданным. Это и есть техника инъекции неожиданности.


🔬

Схема метода

ШАГ 1 (или предварительно): объясни модели её слабость
→ скажи, что она склонна выбирать предсказуемые слова

ШАГ 2 (в одном промпте): попроси написать текст + пометить
предсказуемые места → список "опасных зон"

ШАГ 3 (тот же или следующий запрос): заменить помеченные
места → "неожиданные, но органичные" варианты

Итог: текст с намеренно повышенной энтропией в ключевых точках

Шаги 2–3 можно объединить в один промпт с двухфазным выводом.


🚀

Пример применения

Задача: Написать заявку на питч-сессию в стиле Фёдора Овчинникова (Додо Пицца) — живую, не корпоративную, запоминающуюся.

Промпт:

Ты склонен выбирать статистически ожидаемые слова и обороты —
это встроенная особенность твоего обучения. Особенно в текстах
про бизнес ты используешь: «синергия», «устойчивый рост»,
«клиентоориентированность», «инновационные решения».

Напиши заявку на питч-сессию от предпринимателя из Сыктывкара,
который открыл пиццерию с открытой кухней. 150–200 слов.

После текста выпиши 3–5 мест, где ты выбрал предсказуемый
оборот («работает в режиме» вместо «горит», «команда
профессионалов» вместо чего-то живого). Для каждого предложи
неожиданную, но органичную замену.

Затем напиши финальную версию с заменами.

Результат: Модель выдаст три блока: черновик → список предсказуемых мест с заменами → финальная редакция. Замены будут конкретными: вместо клише появятся детали, образы, ритм. Финальный текст будет заметно живее черновика — это видно без метрик.


🧠

Почему это работает

LLM выбирает «самое вероятное» слово. На каждом шаге модель оценивает все возможные следующие слова и выбирает из тех, что статистически ожидаемы в данном контексте. В художественном тексте именно это убивает живость: «тёплый вечер» → «закат», «он подошёл» → «к окну», «она почувствовала» → «тревогу». Всё правильно, всё мёртво.

Объяснение устраняет автоматическую коррекцию. Когда ты явно называешь модели её слабость и ставишь задачу её обойти, она переключает режим генерации. Вместо «выбери вероятное» начинает работать «выбери неожиданное, но убедительное». Это не магия — это изменение критерия отбора через инструкцию.

Рычаги управления: - Список запрещённых клише в промпте → модель активнее их избегает уже в черновике - Число мест для замены → уменьши до 2 для лёгкого текста, увеличь до 7 для жёсткой правки - Критерий «неожиданная, но органичная» → можно заменить на «неожиданная и немного неудобная» для экспериментального текста - Отдельный шаг аудита → можно запускать как самостоятельную правку уже готового текста, не только при создании с нуля


📋

Шаблон промпта

У тебя есть встроенная склонность выбирать статистически
ожидаемые слова — особенно в текстах про {домен}. Типичные
паттерны: {список клише для домена}.

Напиши {что написать}: {задача}. {параметры: объём, стиль, тон}.

После текста выпиши {число} мест, где ты выбрал предсказуемый
оборот. Для каждого — неожиданная, но органичная замена.

Затем напиши финальную версию с заменами.

Что подставлять: - {домен} — тип текста: «бизнес-тексты», «любовные сцены», «описания природы» - {список клише} — назови 3–5 штампов именно из этого домена, чем конкретнее — тем лучше - {что написать} + {задача} — обычное задание на текст - {число} — сколько мест аудировать, обычно 3–5


🚀 Быстрый старт — вставь в чат:

Вот шаблон инъекции неожиданности. Адаптируй под мою задачу:
[опиши что нужно написать].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про домен, тип текста и стиль — потому что список клише зависит от контекста.


⚠️

Ограничения

⚠️ Структурный потолок: Промптинг снижает предсказуемость на уровне слов и оборотов, но не меняет то, как модель строит сюжeт на уровне нарратива. Архетипические дуги («герой преодолевает трудности», «неожиданный поворот в конце») остаются предсказуемыми даже с этой техникой.

⚠️ «Думающие» модели не помогают: o1, DeepSeek-R1 и аналоги показали в исследовании бо́льший разрыв с человеческой неожиданностью, не меньший. Для творческих задач режим «Think» или «Extended thinking» скорее вреден — усиливает bias к "правильным" решениям.

⚠️ Работает лучше для стиля, хуже для структуры: Техника эффективна на уровне слов, фраз, деталей. Для перестройки сюжетных арок нужны другие инструменты.

⚠️ Качество клише в промпте важно: Если перечислишь слабый список запрещённых слов — эффект будет слабым. Потрать минуту на конкретные паттерны именно для твоего жанра.


🔍

Как исследовали

Исследователи взяли рассказы из двух элитных корпусов: The New Yorker (1 января 2010 — 31 декабря 2019) и Tell-Me-A-Story — рассказы, написанные профессионалами в литературных мастерских. Намеренно исключили любительские платформы вроде r/WritingPrompts — чтобы ловить настоящее мастерство, а не случайный шум.

Схема была изящной. Они давали модели начало рассказа и смотрели на два варианта продолжения: что написал человек и что сгенерировала та же модель. Затем та же самая модель оценивала «неожиданность» обоих текстов через вероятности токенов. Это устранило главную методологическую проблему — нельзя сравнивать "удивлённость" разных моделей, потому что у каждой своя шкала.

28 моделей из шести семейств (LLAMA, QWEN, MISTRAL, GEMMA, OLMO, PHI), и для каждой — пара «базовая модель / instruct-версия / thinking-версия». Самый неожиданный результат: thinking-модели не закрыли разрыв — в большинстве случаев он стал шире. Это противоречило интуиции: казалось, «думающая» модель должна делать более нестандартные выборы. Оказалось наоборот: дополнительный compute направлен на «правильность», а не «непредсказуемость». Ещё один сюрприз — масштаб модели лишь частично помогает: в семействе OLMO-2 разрыв между базовой и instruct версиями сокращается с 38% при 7B параметрах до 8% при 32B, но не исчезает.


📄

Оригинал из исследования (опционально)

Дословная цитата из исследования о связи неопределённости с качеством текста:

"We find a robust correlation between higher uncertainty metrics and
automated quality scores, with evidence of possible 'sweet spots'
(inverted U-curve) where optimal writing quality exists at high
entropy levels."

Контекст: Исследователи обнаружили, что зависимость «неожиданность → качество» нелинейна. Есть оптимальная зона: очень низкая неожиданность = скучно, очень высокая = бессвязно. Лучшие тексты — в зоне высокой, но управляемой неожиданности.


📌

Адаптации

📌

💡 Адаптация 1: Аудит уже готового текста

Применяй технику не при создании с нуля, а как редактуру существующего текста.

Прочитай этот текст и найди 5 мест, где я использовал
предсказуемый, статистически ожидаемый оборот:

{текст}

Для каждого: покажи предсказуемый вариант → предложи
неожиданный, но органичный.

Работает для правки своих черновиков, постов в Telegram-канал, питч-деков.


📌

🔧 Техника: Замена критерия выхода → «golden sweet spot»

Исследование нашло инвертированную U-кривую: слишком высокая неожиданность снижает качество. Добавь ограничение в промпт:

Замены должны быть неожиданными, но НЕ странными.
Читатель должен удивиться и сразу понять — не перечитывать.

Это направляет модель в зону «высокая энтропия, сохранена связность».


📌

🔧 Техника: Персонаж как якорь неожиданности

Вместо абстрактного «будь неожиданным» — дай ролевой ориентир:

Пиши как Людмила Петрушевская: каждая деталь должна
немного сдвигать ожидание читателя, ни одна фраза не
должна быть "нейтральной".

Конкретный автор задаёт стилистический вектор — модель опирается на паттерны из его текстов, а не на "среднее по больнице".


🔗

Ресурсы

Название работы: LLMs Exhibit Significantly Lower Uncertainty in Creative Writing Than Professional Writers

Автор: Peiqi Sui, Department of English, McGill University, Montreal, Canada (peiqi.sui@mail.mcgill.ca)

Preprint: февраль 2026

Датасеты: The New Yorker (2010–2019), Tell-Me-A-Story corpus (Huot et al., 2025)

Ключевые отсылки в работе: Keats (1817) — «negative capability»; Barthes (1974) — «writerly text»; Eco (1989) — «open work»; информационно-теоретический анализ через NLL, PPL, PMI, CPMI


📋 Дайджест исследования

Ключевая суть

Режим 'глубоких рассуждений' (extended thinking) в o1 и DeepSeek-R1 даёт ещё более предсказуемые тексты — не живее. Исследователи замерили: тексты профессиональных писателей в 2–4 раза 'неожиданнее' с точки зрения самой модели, чем то, что та выдаёт без подсказки. Техника инъекции неожиданности позволяет писать нешаблонные тексты — без смены модели и без дообучения. Скажи модели прямо о её слабости и попроси пометить каждое предсказуемое место — она переключается с 'выбери вероятное' на 'выбери неожиданное, но убедительное'. В тексте на 200 слов это 3–5 конкретных замен, которые делают разницу.

Принцип работы

На каждом шаге генерации модель выбирает статистически ожидаемое слово. 'Тёплый вечер' → 'закат'. 'Она почувствовала' → 'тревогу'. Правильно. Мёртво. Прикол: это не баг конкретной модели — это системный результат обучения на человеческих предпочтениях (RLHF). Рецензенты ценят ясность и безопасность, поэтому неожиданные и двусмысленные слова штрафуются при обучении — методично, на каждом примере. Явная инструкция 'найди предсказуемые места и замени' меняет критерий отбора прямо в момент генерации: не 'что правдоподобно', а 'что удивит, не сломав смысл'.

Почему работает

Без специальных указаний модель оптимизирует по одному критерию: что статистически ожидаемо дальше. RLHF закрепил это — модель выучила, что предсказуемое нравится людям. Явный запрос намеренно нарушить свой же выбор переключает внутренний фильтр: вместо 'что правдоподобно' начинает работать 'что удивит, не сломав смысл'. Конкретный список запрещённых клише усиливает эффект. Чем точнее список под жанр — тем агрессивнее модель их обходит уже в черновике, не только на этапе правки.

Когда применять

Художественные тексты, питч-заявки, бренд-коммуникации, авторские колонки, посты — везде, где 'правильно написано' недостаточно и нужна живая интонация. Отдельный сценарий: аудит уже готового текста — промпт работает и как инструмент правки, не только при создании с нуля. Вставляешь чужой или свой черновик, просишь найти предсказуемые места. НЕ подходит для: технической документации, инструкций, юридических текстов — там предсказуемость это достоинство, а не недостаток.

Мини-рецепт

1. Назови домен и выпиши клише: Скажи модели, какой тип текста пишешь, и перечисли 3–5 штампов именно из этого жанра. Без конкретики эффект слабее — 'пиши живее' не работает, 'избегай слов синергия, устойчивый рост, клиентоориентированность' — работает.

2. Дай задачу с двухфазным выводом: Сначала черновик, потом аудит — попроси выписать 3–5 предсказуемых мест и предложить замены по критерию 'неожиданная, но органичная'. Число мест регулируй под задачу: 2 для лёгкого текста, 7 для жёсткой правки.

3. Финальная версия с заменами: Последний блок вывода — текст с применёнными правками. Сравни с черновиком: разница будет видна без метрик.

Все три фазы можно объединить в один промпт — модель выдаст три блока последовательно.

Примеры

[ПЛОХО] : Напиши живой, нестандартный питч для нашего стартапа по доставке еды
[ХОРОШО] : Ты склонен использовать предсказуемые обороты в бизнес-текстах: 'инновационные решения', 'клиентоориентированность', 'устойчивый рост', 'синергия', 'команда профессионалов'. Напиши питч-заявку от предпринимателя из Сыктывкара, который открыл пиццерию с открытой кухней. 150–200 слов, живо, без корпоративного языка. После текста выпиши 4 места где выбрал предсказуемый оборот — и для каждого предложи неожиданную, но органичную замену. Затем напиши финальную версию с заменами.
Источник: LLMs Exhibit Significantly Lower Uncertainty in Creative Writing Than Professional Writers
ArXiv ID: 2602.16162 | Сгенерировано: 2026-02-20 10:45

Проблемы LLM

ПроблемаСутьКак обойти
Модель выбирает предсказуемые слова по умолчаниюНа каждом шаге модель оценивает следующее слово. Выбирает статистически ожидаемое. «Тёплый вечер» «закат». «Она почувствовала» «тревогу». Всё грамотно. Всё мёртво. Это не баг — это результат обучения на человеческих оценках. Рецензоры ценят ясность и безопасность. Модель этому и научиласьСкажи модели прямо: «ты склонна выбирать предсказуемые слова». Назови конкретные клише для твоего жанра. Попроси найти предсказуемые места и заменить их на неожиданные, но органичные

Методы

МетодСуть
Аудит предсказуемости — живой текст за два шагаПиши запрос в три части. Первая: объясни модели её слабость и назови 3–5 клише для твоего жанра. Вторая: дай задание на текст. Третья: попроси выписать {N} предсказуемых мест для каждого дать неожиданную, но органичную замену написать финальную версию с заменами. Почему работает: явное называние слабости меняет критерий отбора слов. Модель переключается с «выбери вероятное» на «выбери неожиданное». Рычаги: меньше мест для замены (2–3) — лёгкая правка; больше (6–7) — жёсткая редактура. Ограничение: работает на уровне слов и фраз. Сюжетные дуги остаются предсказуемыми — эта техника их не меняет
📖 Простыми словами

LLMsExhibit Significantly Lower Uncertainty in Creative Writing Than Professional Writers

arXiv: 2602.16162

Суть в том, что современные нейронки — это патологические отличники, которые до смерти боятся ошибиться. Когда ты просишь ChatGPT написать рассказ, она не творит, а занимается статистическим выживанием. Из-за обучения на человеческих предпочтениях (тот самый RLHF) модели вбили в голову: будь понятной, будь предсказуемой, не рискуй. В итоге в любой творческой задаче нейронка демонстрирует аномально низкую неопределенность, выбирая самые скучные и безопасные слова, которые только можно представить.

Это как если бы ты пришел на джем-сейшн к джазменам, но вместо импровизации начал играть гаммы по учебнику. Формально всё правильно, но слушать невозможно. Профессиональный писатель постоянно подкидывает читателю сюрпризы, меняет ритм и выбирает странные эпитеты, создавая ту самую «неопределенность». А нейронка работает как автозамена в телефоне: она просто подставляет следующее наиболее вероятное слово, превращая текст в серую кашу из клише.

Главная проблема здесь — статистическая ожидаемость. Если модель пишет про «теплый вечер», она с вероятностью 99% добавит «закат», а если герой «почувствовал», то обязательно «тревогу» или «радость». Исследование четко показывает, что у людей разброс вариантов в разы выше. Мы можем завернуть сюжет куда угодно, а модель заперта в тюрьме усредненных смыслов. Она выдает «гладкий» продукт, в котором нет жизни, потому что жизнь — это всегда отклонение от нормы, а нейронку дрессировали эту норму соблюдать.

Этот принцип работает не только в литературе, но и в любом креативе: от нейминга брендов до написания сценариев для Reels. Если ты просишь AI сделать «креативно», он выдает галлюцинацию среднего арифметического. Тестировали это на художественных текстах, но диагноз актуален для всего маркетинга: нейронки пока не умеют в «хук» и внезапность, потому что их алгоритмически кастрировали ради безопасности и вежливости. SEO-копирайтинг торжествует, живое слово страдает.

Короче: если тебе нужен текст, который зацепит живого человека, нельзя оставлять результат работы AI «как есть». Модель всегда выберет путь наименьшего сопротивления и выдаст стерильный контент. Чтобы не звучать как робот, нужно намеренно ломать эту низкую неопределенность: вносить хаос, менять предсказуемые прилагательные на странные и выкидывать штампы. Либо мы научимся заставлять AI рисковать, либо интернет окончательно превратится в бесконечную простыню из «важно отметить» и «в современном мире».

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с