TL;DR
Когда просишь LLM перевести, переписать или адаптировать творческий текст — метафору, идиому, игру слов, культурную отсылку — модель по умолчанию выбирает безопасный, буквальный вариант. Не потому что не понимает текст, а потому что без явного разрешения "нестандартный" = "рискованный". Исследователи назвали такие места в тексте Units of Creative Potential (UCP) — точки, где переводчик-человек уходит от буквального смысла, чтобы сохранить образ, иронию или ритм.
Главная находка: понимание текста и творческий вывод — разные способности. Модель может идеально объяснить, что означает метафора Набокова, и при этом перевести её как словарная статья. Это не баг конкретной модели — так делают почти все. Причина: без инструкции разрешить "уйти от оригинала" модель генерирует текст по паттерну "точность = ценность".
Исследователи проверили три уровня явного разрешения на творчество в промпте: от "сохрани всё" до "творческий сдвиг — законный инструмент". Каждый следующий уровень даёт чуть больше нестандартных решений. Ни один не дотягивает до человека-переводчика, но разница между нулевым и третьим уровнем — видна.
Схема метода
Три уровня промпта — от одного запроса, просто с разным текстом:
УРОВЕНЬ 1 (p1): Роль + задача сохранить смысл, тон, образы, голос, культурный контекст
→ "правильный" вывод, но буквальный в сложных местах
УРОВЕНЬ 2 (p2): То же + явное разрешение на отклонение там, где буквальность
убивает смысл или звучит неловко
→ умеренная творческая свобода
УРОВЕНЬ 3 (p3): То же + "творческий сдвиг — это законный инструмент переводчика"
+ указание что источник — сам по себе художественный текст
→ максимальная нестандартность из доступных LLM
Все три уровня — один запрос, без цепочки.
Пример применения
⚠️ Метод работает лучше всего на задачах с конкретными "творческими точками": метафорах, идиомах, игре слов, культурных отсылках. Хуже — на нейтральном информационном тексте, где буквальность и так уместна.
Задача: Ты — копирайтер агентства. Клиент — российский сервис доставки еды. Нужно адаптировать слоган американского конкурента: "We don't just deliver food. We deliver the feeling of home." В русском варианте должна остаться эмоциональная метафора — не просто смысл, а образ.
Промпт (Уровень 1 — точность):
Ты — профессиональный копирайтер, который адаптирует маркетинговые тексты для
российской аудитории. Твоя задача — передать смысл, тон, образ, голос
и культурный контекст оригинала.
Адаптируй для российского сервиса доставки еды:
"We don't just deliver food. We deliver the feeling of home."
Сохрани эмоциональный образ. Текст на русском языке.
Промпт (Уровень 2 — умеренная свобода):
Ты — профессиональный копирайтер, который адаптирует маркетинговые тексты
для российской аудитории. Передай смысл, тон, образ, голос и культурный контекст.
Там, где буквальный перевод звучит неловко или теряет силу образа —
допускается творческое отклонение от оригинала.
Адаптируй для российского сервиса доставки еды:
"We don't just deliver food. We deliver the feeling of home."
Текст на русском языке.
Промпт (Уровень 3 — полная свобода):
Ты — профессиональный копирайтер, который адаптирует художественные
маркетинговые тексты для российской аудитории. Оригинал намеренно поэтичен
и играет на метафоре.
Твоя задача: передать эмоциональный образ и силу высказывания.
Творческий сдвиг — законный инструмент: если для сохранения образа
нужно уйти от буквального смысла слов — делай это.
Адаптируй для российского сервиса доставки еды:
"We don't just deliver food. We deliver the feeling of home."
Дай 2-3 варианта. Текст на русском языке.
Результат: - Уровень 1 выдаст что-то вроде "Мы доставляем не просто еду — мы доставляем ощущение дома" — точно, но предсказуемо - Уровень 2 может сдвинуть образ: "дом" превратится во что-то конкретное — запах, тепло, уют - Уровень 3 даст несколько вариантов с более смелыми метафорами — модель попробует уйти от структуры оригинала ради силы образа. Качество непредсказуемо, но диапазон решений шире
Почему это работает
Слабость LLM в творческих задачах — не в незнании, а в выборе "безопасного" по умолчанию. Когда задача неоднозначна — "как лучше перевести метафору?" — модель генерирует текст по паттерну с наибольшей вероятностью. А самый вероятный паттерн для перевода — это точность. Буквальный вариант всегда "правильнее", когда критерий не задан.
Сильная сторона LLM — следование явным инструкциям. Если в промпте написано "творческий сдвиг — законный инструмент", модель начинает генерировать по другому паттерну. Не потому что "разрешили", а потому что изменились весовые ориентиры в инструкции.
Как метод использует это: каждый уровень промпта делает один шаг — немного явнее формулирует, что "нестандартный" = "ценный". Уровень 3 максимально сдвигает ориентир с "точность" на "выразительность". Это не гарантирует качество — но меняет распределение вариантов.
Рычаги управления: - Уровень детализации творческой инструкции → чем конкретнее описана "творческая точка" (вот эта метафора, вот этот каламбур), тем точнее сдвиг - Число вариантов → попроси 3-5 вариантов на уровне 3, потом выбери — охват выше - Экспликация цели → добавь "что именно должен почувствовать читатель" → модель генерирует под эмоцию, не под структуру - Явное указание UCP → скажи "вот эта фраза — самая творческая точка текста, здесь не буквальность" → концентрируешь внимание модели
Шаблон промпта
Ты — {роль: копирайтер / переводчик / редактор}, который работает
с {тип текста: маркетинговыми текстами / художественными фрагментами /
рекламными слоганами} для {аудитория: российской аудитории / читателей Telegram /
и т.д.}
Передай {что сохранить: смысл, тон, образ, голос, культурный контекст}.
{УРОВЕНЬ ТВОРЧЕСКОЙ СВОБОДЫ — выбери один:}
[Уровень 1 — точность]
Сохрани оригинальную структуру и смысл максимально близко к источнику.
[Уровень 2 — умеренная свобода]
Там, где буквальная передача звучит неловко или теряет выразительность —
допускается творческое отклонение.
[Уровень 3 — полная свобода]
Оригинал художественный и намеренно образный. Творческий сдвиг —
законный инструмент: уходи от буквального смысла ради силы образа.
Особое внимание — {UCP: вот этой метафоре / этой игре слов / этой культурной отсылке}.
Задача: {конкретное задание}
Текст: {вставь текст}
{опционально} Дай {число} вариантов.
Плейсхолдеры:
- {роль} — кто ты для этой задачи
- {тип текста} — что адаптируешь
- {аудитория} — для кого
- {что сохранить} — ключевые качества оригинала
- {уровень творческой свободы} — выбери один из трёх блоков
- {UCP} — конкретная точка, где нужна нестандартность (по желанию)
- {текст} — исходник
🚀 Быстрый старт — вставь в чат:
Вот шаблон трёхуровневого творческого промпта. Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какой текст адаптировать, для какой аудитории и какой уровень творческой свободы нужен — потому что без этого непонятно, сохранять структуру или ломать её ради образа.
Ограничения
⚠️ Скромный эффект: Даже уровень 3 даёт умеренные улучшения. Большинство моделей остаются в зоне "буквальность" для сложных творческих точек. Если задача требует высокого художественного уровня — ожидай посредственный результат независимо от уровня промпта.
⚠️ Слабость для дальних пар: Чем дальше языки по культуре и структуре — тем сильнее провал. Английский → русский ближе, чем английский → китайский, но для задач с глубокой культурной спецификой (idioms, реалии) ожидай больше буквальности.
⚠️ Понимание ≠ творческий вывод: Если попросишь модель ОБЪЯСНИТЬ метафору — объяснит прекрасно. Но это не значит, что она воспроизведёт её с той же силой. Это разные задачи с разными результатами.
⚠️ Нет "правильного" уровня: Исследование показывает, что разные модели по-разному реагируют на уровни. Один и тот же текст у GPT-4o и Mistral на одном уровне даст разный результат. Попробуй несколько комбинаций.
Как исследовали
Команда взяла 11 классических английских романов — от Мелвилла до Оруэлла — и построила двухшаговый тест. Шаг 1: 299 вопросов-утверждений про смысл фрагментов (истина/ложь + обоснование). Это проверяло понимание. Шаг 2: те же фрагменты нужно было перевести на китайский и нидерландский — и эксперты размечали каждую "творческую точку" (метафору, идиому, игру слов), проверяя: модель воспроизвела буквально, ушла творчески или наделала ошибок.
Всего — 23 модели, включая Claude, GPT-4o, Gemini, Mistral, Grok, DeepSeek, Qwen. Результат удивил: модели хорошо справились с тестом на понимание — но понимание почти не помогло при переводе творческих точек. Корреляция умеренная, не сильная. Единственная модель, которая приблизилась к человеческой оценке — Mistral-Large (0.167 против 0.246 у человека). Все остальные кластеризовались около нуля или ниже.
Интересно: режим "думающей" модели (thinking mode) почти не помог. Больше вычислений ≠ больше творчества. Инсайт для практики: проблема не в "недостаточно подумала", а в настройке по умолчанию на безопасность вывода.
Адаптации и экстраполяции
🔧 Техника: явная разметка UCP в тексте → концентрация творческого усилия
Вместо того чтобы давать общее разрешение на творчество — отметь конкретную точку прямо в промпте:
Переведи текст на русский язык. Сохрани смысл и тон.
Особое внимание: фраза [вот эта фраза] — это игра слов / метафора / культурная
отсылка. Здесь буквальный перевод потеряет смысл. Найди решение, которое
передаёт ОЩУЩЕНИЕ, а не словарное значение.
Текст: {текст}
Этот подход работает лучше уровня 3 для конкретных точек — ты направляешь внимание, а не даёшь общую лицензию.
🔧 Экстраполяция: применить к любой творческой трансформации, не только переводу
Принцип "трёх уровней разрешения" работает везде, где есть противоречие точность vs. выразительность:
- Переписать корпоративный текст в живой стиль
- Адаптировать технический текст для широкой аудитории
- Создать вариации рекламного заголовка
- Переписать отзыв клиента в цитату для сайта
Везде один паттерн: уровень 1 = "сохрани всё", уровень 3 = "образ важнее слов".
Ресурсы
Статья: Beyond Reproduction: A Paired-Task Framework for Assessing LLM Comprehension and Creativity in Literary Translation
Авторы: Ran Zhang, Steffen Eger, Arda Tezcan, Wei Zhao, Simone Paolo Ponzetto, Lieve Macken
Университеты: University of Mannheim, University of Technology Nuremberg (UTN), University of Gent, University of Aberdeen
Код и данные: github.com/NL2G/Beyond-Reproduction
NLLG Lab (Natural Language Learning and Generation): Eger, Zhang
