TL;DR
Обучение на человеческих предпочтениях (RLHF) специально учит модели избегать неожиданных, рискованных, двусмысленных слов и поворотов — потому что рецензенты ценят ясность и безопасность. Результат: каждое следующее слово модель выбирает по принципу «что статистически ожидаемо в этом контексте» — и так на каждом шаге. Текст выходит гладким, грамотным и мёртвым.
Исследователи замерили это через теоретико-информационный анализ: тексты профессиональных писателей оказались в 2–4 раза "неожиданнее" с точки зрения самой модели, чем то, что она генерирует сама. Это не баг конкретной модели — это системный эффект обучения. Причём моды с «думанием» (reasoning/thinking) делают хуже, не лучше: налог на предсказуемость у них ещё выше, чем у обычных instruct-моделей.
Фиксировать это архитектурно из чата нельзя. Но можно частично обойти: попросить модель работать явно против своего встроенного bias — замечать каждый предсказуемый выбор и заменять его неожиданным. Это и есть техника инъекции неожиданности.
Схема метода
ШАГ 1 (или предварительно): объясни модели её слабость
→ скажи, что она склонна выбирать предсказуемые слова
ШАГ 2 (в одном промпте): попроси написать текст + пометить
предсказуемые места → список "опасных зон"
ШАГ 3 (тот же или следующий запрос): заменить помеченные
места → "неожиданные, но органичные" варианты
Итог: текст с намеренно повышенной энтропией в ключевых точках
Шаги 2–3 можно объединить в один промпт с двухфазным выводом.
Пример применения
Задача: Написать заявку на питч-сессию в стиле Фёдора Овчинникова (Додо Пицца) — живую, не корпоративную, запоминающуюся.
Промпт:
Ты склонен выбирать статистически ожидаемые слова и обороты —
это встроенная особенность твоего обучения. Особенно в текстах
про бизнес ты используешь: «синергия», «устойчивый рост»,
«клиентоориентированность», «инновационные решения».
Напиши заявку на питч-сессию от предпринимателя из Сыктывкара,
который открыл пиццерию с открытой кухней. 150–200 слов.
После текста выпиши 3–5 мест, где ты выбрал предсказуемый
оборот («работает в режиме» вместо «горит», «команда
профессионалов» вместо чего-то живого). Для каждого предложи
неожиданную, но органичную замену.
Затем напиши финальную версию с заменами.
Результат: Модель выдаст три блока: черновик → список предсказуемых мест с заменами → финальная редакция. Замены будут конкретными: вместо клише появятся детали, образы, ритм. Финальный текст будет заметно живее черновика — это видно без метрик.
Почему это работает
LLM выбирает «самое вероятное» слово. На каждом шаге модель оценивает все возможные следующие слова и выбирает из тех, что статистически ожидаемы в данном контексте. В художественном тексте именно это убивает живость: «тёплый вечер» → «закат», «он подошёл» → «к окну», «она почувствовала» → «тревогу». Всё правильно, всё мёртво.
Объяснение устраняет автоматическую коррекцию. Когда ты явно называешь модели её слабость и ставишь задачу её обойти, она переключает режим генерации. Вместо «выбери вероятное» начинает работать «выбери неожиданное, но убедительное». Это не магия — это изменение критерия отбора через инструкцию.
Рычаги управления: - Список запрещённых клише в промпте → модель активнее их избегает уже в черновике - Число мест для замены → уменьши до 2 для лёгкого текста, увеличь до 7 для жёсткой правки - Критерий «неожиданная, но органичная» → можно заменить на «неожиданная и немного неудобная» для экспериментального текста - Отдельный шаг аудита → можно запускать как самостоятельную правку уже готового текста, не только при создании с нуля
Шаблон промпта
У тебя есть встроенная склонность выбирать статистически
ожидаемые слова — особенно в текстах про {домен}. Типичные
паттерны: {список клише для домена}.
Напиши {что написать}: {задача}. {параметры: объём, стиль, тон}.
После текста выпиши {число} мест, где ты выбрал предсказуемый
оборот. Для каждого — неожиданная, но органичная замена.
Затем напиши финальную версию с заменами.
Что подставлять:
- {домен} — тип текста: «бизнес-тексты», «любовные сцены», «описания природы»
- {список клише} — назови 3–5 штампов именно из этого домена, чем конкретнее — тем лучше
- {что написать} + {задача} — обычное задание на текст
- {число} — сколько мест аудировать, обычно 3–5
🚀 Быстрый старт — вставь в чат:
Вот шаблон инъекции неожиданности. Адаптируй под мою задачу:
[опиши что нужно написать].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про домен, тип текста и стиль — потому что список клише зависит от контекста.
Ограничения
⚠️ Структурный потолок: Промптинг снижает предсказуемость на уровне слов и оборотов, но не меняет то, как модель строит сюжeт на уровне нарратива. Архетипические дуги («герой преодолевает трудности», «неожиданный поворот в конце») остаются предсказуемыми даже с этой техникой.
⚠️ «Думающие» модели не помогают: o1, DeepSeek-R1 и аналоги показали в исследовании бо́льший разрыв с человеческой неожиданностью, не меньший. Для творческих задач режим «Think» или «Extended thinking» скорее вреден — усиливает bias к "правильным" решениям.
⚠️ Работает лучше для стиля, хуже для структуры: Техника эффективна на уровне слов, фраз, деталей. Для перестройки сюжетных арок нужны другие инструменты.
⚠️ Качество клише в промпте важно: Если перечислишь слабый список запрещённых слов — эффект будет слабым. Потрать минуту на конкретные паттерны именно для твоего жанра.
Как исследовали
Исследователи взяли рассказы из двух элитных корпусов: The New Yorker (1 января 2010 — 31 декабря 2019) и Tell-Me-A-Story — рассказы, написанные профессионалами в литературных мастерских. Намеренно исключили любительские платформы вроде r/WritingPrompts — чтобы ловить настоящее мастерство, а не случайный шум.
Схема была изящной. Они давали модели начало рассказа и смотрели на два варианта продолжения: что написал человек и что сгенерировала та же модель. Затем та же самая модель оценивала «неожиданность» обоих текстов через вероятности токенов. Это устранило главную методологическую проблему — нельзя сравнивать "удивлённость" разных моделей, потому что у каждой своя шкала.
28 моделей из шести семейств (LLAMA, QWEN, MISTRAL, GEMMA, OLMO, PHI), и для каждой — пара «базовая модель / instruct-версия / thinking-версия». Самый неожиданный результат: thinking-модели не закрыли разрыв — в большинстве случаев он стал шире. Это противоречило интуиции: казалось, «думающая» модель должна делать более нестандартные выборы. Оказалось наоборот: дополнительный compute направлен на «правильность», а не «непредсказуемость». Ещё один сюрприз — масштаб модели лишь частично помогает: в семействе OLMO-2 разрыв между базовой и instruct версиями сокращается с 38% при 7B параметрах до 8% при 32B, но не исчезает.
Оригинал из исследования (опционально)
Дословная цитата из исследования о связи неопределённости с качеством текста:
"We find a robust correlation between higher uncertainty metrics and
automated quality scores, with evidence of possible 'sweet spots'
(inverted U-curve) where optimal writing quality exists at high
entropy levels."
Контекст: Исследователи обнаружили, что зависимость «неожиданность → качество» нелинейна. Есть оптимальная зона: очень низкая неожиданность = скучно, очень высокая = бессвязно. Лучшие тексты — в зоне высокой, но управляемой неожиданности.
Адаптации
💡 Адаптация 1: Аудит уже готового текста
Применяй технику не при создании с нуля, а как редактуру существующего текста.
Прочитай этот текст и найди 5 мест, где я использовал
предсказуемый, статистически ожидаемый оборот:
{текст}
Для каждого: покажи предсказуемый вариант → предложи
неожиданный, но органичный.
Работает для правки своих черновиков, постов в Telegram-канал, питч-деков.
🔧 Техника: Замена критерия выхода → «golden sweet spot»
Исследование нашло инвертированную U-кривую: слишком высокая неожиданность снижает качество. Добавь ограничение в промпт:
Замены должны быть неожиданными, но НЕ странными.
Читатель должен удивиться и сразу понять — не перечитывать.
Это направляет модель в зону «высокая энтропия, сохранена связность».
🔧 Техника: Персонаж как якорь неожиданности
Вместо абстрактного «будь неожиданным» — дай ролевой ориентир:
Пиши как Людмила Петрушевская: каждая деталь должна
немного сдвигать ожидание читателя, ни одна фраза не
должна быть "нейтральной".
Конкретный автор задаёт стилистический вектор — модель опирается на паттерны из его текстов, а не на "среднее по больнице".
Ресурсы
Название работы: LLMs Exhibit Significantly Lower Uncertainty in Creative Writing Than Professional Writers
Автор: Peiqi Sui, Department of English, McGill University, Montreal, Canada (peiqi.sui@mail.mcgill.ca)
Preprint: февраль 2026
Датасеты: The New Yorker (2010–2019), Tell-Me-A-Story corpus (Huot et al., 2025)
Ключевые отсылки в работе: Keats (1817) — «negative capability»; Barthes (1974) — «writerly text»; Eco (1989) — «open work»; информационно-теоретический анализ через NLL, PPL, PMI, CPMI
