3,583 papers
arXiv:2605.13368 74 13 мая 2026 г. FREE

Двухходовой рефайнмент: генерируй целиком — дорабатывай по частям

КЛЮЧЕВАЯ СУТЬ
Парадокс: чем подробнее объясняешь LLM что именно исправить — тем хуже результат. Промпт с перечислением типов ошибок («проверь точность, вырови стиль, найди пропуски») не даёт преимущества перед простым «улучши» — а часто проигрывает. Метод двухходового рефайнмента позволяет системно полировать большие тексты — лендинги, статьи, письма — без потери связности и смысла. Фишка: сначала генерируй весь текст целиком, потом дорабатывай маленькими кусками — каждый раз давая модели видеть полный текст. Это работает потому что рефайнмент — не редактура: модель не «чинит» ошибки, она тянет текст к своему внутреннему стандарту красивого письма. И именно это она умеет делать хорошо.
Адаптировать под запрос

TL;DR

Когда просишь LLM улучшить свой же текст, она не исправляет смысловые ошибки — она переписывает в своём стиле. Это не баг, это фундаментальное свойство: модель тянет текст к тому, как она сама пишет, а не к тому, что было в исходнике. Отсюда вытекает конкретная механика: рефайнмент (доработка) надёжно улучшает стиль, плавность, терминологию — но слабо и непредсказуемо работает с точностью содержания.

Главная боль при работе с текстом: просишь "улучши перевод/текст", пишешь подробный промпт с инструкцией "исправь все ошибки точности" — и получаешь примерно то же самое, что простое "сделай лучше". Сложный промпт с указанием конкретных типов ошибок не даёт преимущества перед простым запросом.

Исследование нашло рабочий рецепт: сначала генерируй текст с максимально широким контекстом (весь документ целиком), потом дорабатывай его по маленьким кускам (абзац, параграф) — при этом давая модели видеть полный текст. Этот подход надёжнее, чем доработка всего текста сразу. И делать несколько проходов рефайнмента (2-4 итерации) — лучше, чем один.


🔬

Схема метода

ШАГ 1: ГЕНЕРАЦИЯ
  Пишешь (или просишь написать) ВЕСЬ текст целиком, одним запросом
  → Готовый черновик

ШАГ 2: РЕФАЙНМЕНТ (отдельные запросы для каждого куска)
  Даёшь модели: [весь текст] + [конкретный кусок для доработки]
  Просишь: простой "улучши этот фрагмент" (без деталей про типы ошибок)
  → Улучшенный фрагмент

  Повторяй для каждого абзаца
  Можно делать 2-4 итерации одного фрагмента

Шаги выполняются отдельными запросами. Шаг 2 можно повторять несколько раз на одном куске.


🚀

Пример применения

Задача: Ты написал питч-страницу для своего стартапа — агрегатора скидок на маркетплейсах. Нужно за неделю запустить лендинг. Текст готов, но звучит деревянно и как у всех.

Промпт — Шаг 1 (уже сделан): Весь текст лендинга написан → черновик готов.

Промпт — Шаг 2 (для каждого блока):

Вот полный текст моего лендинга:
---
[вставь весь текст лендинга целиком]
---

Сейчас дорабатывай только этот блок — заголовок и первый абзац:
---
[вставь только заголовок + первый абзац]
---

Улучши этот фрагмент: сделай текст живее, плавнее, сильнее. 
Не меняй смысл и факты — только стиль и подачу.
Выдай только переработанный фрагмент.

После — берёшь следующий блок и повторяешь. Можно сделать 2-3 прохода по одному блоку.

Результат: Каждая итерация даст переформулированный фрагмент: текст станет глаже, фразы — естественнее, терминология — точнее. Смысл при правильном промпте сохранится. Если нужна максимальная полировка — прогони блок через 2-4 итерации, каждый раз подавая предыдущий результат как "текущую версию".


🧠

Почему это работает

Слабость LLM при доработке. Когда просишь модель "найди ошибки и исправь" — она плохо умеет точечно диагностировать и чинить конкретные проблемы. Её самооценка ненадёжна: она может "найти ошибку" там где её нет, или пропустить настоящую. Подробный промпт с перечислением типов ошибок не помогает — и часто даже вредит.

Сильная сторона LLM при доработке. Зато модель очень хорошо умеет переписывать текст в своём стиле — делать его глаже, натуральнее, с лучшим ритмом. Это и есть то, что происходит при рефайнменте. Модель не "чинит" — она тянет текст к своему внутреннему стандарту красивого текста.

Как метод использует это. Раз рефайнмент = стилевая полировка, стратегия простая: не мешай ему делать то, что он умеет. Простой промпт ("улучши") даёт модели свободу тянуть текст к своему стандарту — этого достаточно. Сложный промпт ("исправь ошибки точности, проверь термины, вырови стиль") ограничивает и сбивает с толку. А доработка мелкими кусками при видимости всего текста даёт модели достаточно контекста — она понимает общую картину и не нарушает связность.

Рычаги управления: - Размер куска → меньше кусок = больше правок и сильнее полировка, но медленнее - Количество итераций → 2-4 прохода лучше одного; после 4 отдача падает - Простота промпта → "улучши" работает лучше подробных инструкций про типы ошибок - Контекст → всегда давай полный текст + целевой фрагмент; без контекста модель рвёт связность


📋

Шаблон промпта

Вот полный текст:
---
{весь_текст}
---

Дорабатывай только этот фрагмент:
---
{фрагмент_для_доработки}
---

Улучши этот фрагмент: сделай текст плавнее, живее, точнее по стилю.
Не меняй факты и смысл.
Выдай только переработанный фрагмент — без комментариев.

Что подставлять: - {весь_текст} — полная версия вашего текста (статья, письмо, описание, питч) - {фрагмент_для_доработки} — один абзац или логический блок (100-300 слов)

Прогони каждый блок 2-3 раза, каждый раз подавая обновлённую версию.


🚀 Быстрый старт — вставь в чат:

Вот шаблон двухходового рефайнмента. 
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какой текст дорабатывать и на какие блоки делить — потому что размер куска влияет на глубину правок и количество итераций. Она возьмёт паттерн из шаблона и адаптирует под задачу.


⚠️

Ограничения

⚠️ Рефайнмент не исправляет смысловые ошибки: Если в тексте фактическая неточность или пропущена важная мысль — доработка стиля не поможет. Рефайнмент = полировка, не редактура по содержанию.

⚠️ Качество потолка ограничено моделью рефайнмента: Слабая модель не выправит текст до уровня сильной, сколько итераций ни делай. Если качество важно — используй сильную модель на шаге доработки.

⚠️ Первый черновик ограничивает финал: Если исходник плохой по содержанию — итоговый текст тоже не станет хорошим. Рефайнмент улучшает то что есть, но не переписывает с нуля.

⚠️ Простой промпт лучше — но это касается стиля: Для задач где нужно именно содержательное редактирование (проверка фактов, структуры, логики аргументов) — это исследование неприменимо.

⚠️ Исследование проводилось на литературном переводе. Принципы стиля и гранулярности переносятся на любые тексты, но конкретные цифры улучшений — только для перевода.


🔍

Как исследовали

Команда из Амстердамского университета, Кембриджа и Amazon AGI взяла задачу литературного перевода — намеренно сложную: художественные тексты требуют и точности смысла, и красоты стиля одновременно. Протестировали 9 моделей (от Qwen2.5-14B до GPT-5.2), 7 языковых пар и 9 комбинаций гранулярности — как генерировать текст и как его дорабатывать (абзацами, параграфами, целым документом).

Ключевой вопрос был провокационным: а что вообще происходит, когда LLM дорабатывает свой же перевод? Для ответа разложили качество на 4 измерения: точность содержания, плавность, стиль, терминология. И обнаружили неожиданное: сложные промпты с указанием конкретных ошибок не дали преимущества перед простым "улучши перевод". Это поставило вопрос: если рефайнмент должен исправлять ошибки точности — почему "исправь ошибки точности" работает не лучше, чем без инструкций?

Ответ нашли в анализе вероятностей: модель при доработке не ищет слабые места. Она берёт текст и тянет его к тому, как она сама предпочла бы написать — независимо от того, где реальные ошибки. Это объясняет всё: почему растёт стиль и плавность (модель улучшает то, что умеет), но не точность (это требует другого механизма). Человеческая оценка подтвердила: 98% участников предпочли отрефайненный текст по плавности — но по точности смысла мнения разделились.


📄

Оригинал из исследования

Контекст: Общий промпт рефайнмента, который оказался лучшим по всем показателям (general refinement strategy).

You are a professional translator and post-editor. 
You will be given a source document and an initial translation. 
Your task is to improve the translation to make it better.

Source document:
{source}

Initial translation:
{translation}

Please provide an improved version of the translation.

(Сегментный вариант добавляет: "Focus on the following segment: {segment}. Output only the revised segment.")


💡

Адаптации и экстраполяции

💡 Адаптация для редактуры маркетинговых текстов:

Тот же принцип работает когда нужно превратить "технический" текст команды в живой маркетинговый — например, описания товаров на Wildberries или Ozon.

Вот полное описание товара и карточки:
---
{весь_каталог_описаний}
---

Улучши только это описание:
---
{одно_описание}
---

Сделай текст живее и убедительнее для покупателя. 
Факты, характеристики и цифры не меняй.
Выдай только переработанный текст.

🔧 Техника: убрать "без комментариев" → видеть логику правок

Если хочешь понять что именно модель меняет и почему — убери инструкцию "выдай только результат":

Улучши этот фрагмент: сделай плавнее и живее.
Покажи: что изменил и почему — и финальный текст.

Это особенно полезно для обучения: видишь паттерн правок модели и понимаешь её логику.


🔧 Техника: несколько независимых рефайнментов → сравнение версий

Вместо последовательных итераций — запроси несколько независимых версий одного фрагмента:

Улучши этот фрагмент тремя разными способами.
Версия A: упор на ритм и плавность.
Версия B: упор на точность и конкретность.
Версия C: твой лучший вариант без ограничений.

Выбираешь лучшее или берёшь в гибрид. Обходит "якорный эффект" — каждая версия начинает с оригинала, не тянет хвост предыдущей итерации.


🔗

Ресурсы

What Does LLM Refinement Actually Improve? A Systematic Study on Document-Level Literary Translation

Shaomu Tan (University of Amsterdam), Dawei Zhu, Ke Tran, Michael Denkowski, Sony Trenous, Bill Byrne (University of Cambridge / Amazon AGI), Leonardo Ribeiro, Felix Hieber (Amazon AGI)

Данные: WMT24-Literary benchmark — wmt24.statmt.org


📋 Дайджест исследования

Ключевая суть

Парадокс: чем подробнее объясняешь LLM что именно исправить — тем хуже результат. Промпт с перечислением типов ошибок («проверь точность, вырови стиль, найди пропуски») не даёт преимущества перед простым «улучши» — а часто проигрывает. Метод двухходового рефайнмента позволяет системно полировать большие тексты — лендинги, статьи, письма — без потери связности и смысла. Фишка: сначала генерируй весь текст целиком, потом дорабатывай маленькими кусками — каждый раз давая модели видеть полный текст. Это работает потому что рефайнмент — не редактура: модель не «чинит» ошибки, она тянет текст к своему внутреннему стандарту красивого письма. И именно это она умеет делать хорошо.

Принцип работы

Генерация и доработка — два разных режима. При генерации модель строит структуру и смысл. При доработке — переписывает ближе к своему стилю: ритм, плавность, естественность фраз. Это происходит при любом рефайнменте — независимо от промпта. Поэтому правило простое: не мешай модели делать то, что она умеет. Простой «улучши» даёт ей свободу, сложные инструкции про типы ошибок — сбивают с толку. Маленькие куски плюс полный контекст = модель понимает общую картину и не рвёт связность между абзацами. Два-четыре прохода по одному фрагменту работают лучше одного: каждая итерация даёт заметный шаг вперёд, после четырёх — отдача падает.

Почему работает

LLM плохо диагностирует собственные ошибки. Просишь «найди ошибки точности» — модель может уверенно «найти» то, чего нет, и спокойно пропустить настоящее. Её самооценка ненадёжна. Зато переписывать текст ближе к своему внутреннему стандарту — это модель умеет отлично. Рефайнмент всегда работает через один механизм: модель тянет текст к тому, как она сама пишет — а не к тому, что было в исходнике. Сложный промпт не меняет этот механизм — он только добавляет шум. Поэтому простой запрос не хуже сложного: эффект тот же, но без лишней борьбы с инструкциями.

Когда применять

Доработка текстов где важна подача: лендинги, питчи, статьи, письма, описания продуктов — особенно когда черновик готов, но «звучит деревянно». Хорошо работает для итеративного улучшения: берёшь блок, прогоняешь три раза — каждый раз заметно лучше. НЕ подходит для содержательного редактирования: если нужно проверить факты, исправить логику аргументов или починить структуру — рефайнмент не поможет. Он полирует то что есть, но не переписывает смысл. Также не стоит ждать чуда от слабой модели: потолок качества ограничен тем, что модель умеет.

Мини-рецепт

1. Сгенерируй черновик целиком: Пиши (или проси написать) весь текст одним запросом — лендинг, статью, письмо. На этом шаге не дроби на части: модели нужен полный контекст чтобы держать связность.
2. Раздели на логические блоки: Абзац, секция, 100-300 слов — один блок за раз. Меньше блок = глубже правка и сильнее полировка, но больше итераций.
3. Дорабатывай каждый блок с полным текстом в контексте: Подавай весь текст плюс целевой фрагмент. Промпт простой — без перечислений типов ошибок: Улучши этот фрагмент: сделай текст плавнее и живее. Не меняй факты и смысл. Выдай только переработанный фрагмент — без комментариев.
4. Прогони 2-4 итерации на одном блоке: Каждый раз подавай предыдущий результат как текущую версию. После четырёх итераций отдача заметно падает — стоп.

Примеры

[ПЛОХО] : Улучши этот лендинг. Исправь ошибки точности: проверь термины, найди пропущенные мысли, устрани стилевые неровности и вырови ритм.
[ХОРОШО] : Вот полный текст моего лендинга: --- [весь текст лендинга] --- Сейчас дорабатывай только этот блок: --- [один абзац или секция] --- Улучши этот фрагмент: сделай текст живее и плавнее. Не меняй факты и смысл. Выдай только переработанный фрагмент. После — берёшь следующий блок и повторяешь. Хочешь максимальную полировку — прогони тот же блок ещё два раза, каждый раз подавая предыдущий результат.
Источник: What Does LLM Refinement Actually Improve? A Systematic Study on Document-Level Literary Translation
ArXiv ID: 2605.13368 | Сгенерировано: 2026-05-14 05:28

Проблемы LLM

ПроблемаСутьКак обойти
Подробный промпт на доработку не работает лучше простогоПишешь "исправь ошибки точности, проверь термины, улучши стиль". Думаешь — чем точнее инструкция, тем лучше результат. Нет. Прописанный список типов ошибок не даёт преимущества перед просто "улучши". Работает для любого текста: переводы, статьи, описания, письмаПиши просто: "улучши этот фрагмент, сделай плавнее и точнее по стилю, не меняй факты". Этого достаточно. Детальная инструкция мешает, а не помогает

Методы

МетодСуть
Доработка кусками с полным контекстомСначала пиши или генерируй весь текст целиком — одним запросом. Потом дорабатывай каждый блок отдельным запросом. В каждый запрос вставляй: весь текст + отдельный фрагмент для правки. Промпт простой: "улучши этот фрагмент". Синтаксис: {весь текст} --- дорабатывай только: {фрагмент}. Почему работает: полный контекст не даёт сломать связность. Маленький кусок даёт глубокую правку. Простой промпт не сбивает модель. Итерации: 2–4 прохода одного куска лучше одного. После четвёртого отдача падает. Не работает для исправления фактических ошибок и смысловых пробелов — только для стиля
📖 Простыми словами

What DoesLLMRefinement Actually Improve? A Systematic Study on Document-Level Literary Translation

arXiv: 2605.13368

Когда ты просишь LLM «улучшить» текст, она не работает как дотошный корректор с красной ручкой. Она работает как стилистический пылесос: модель просто затягивает твой исходник в воронку своих внутренних шаблонов и выдает результат, который максимально похож на её собственную манеру письма. Фундаментальная механика тут проста: нейронка не «исправляет» ошибки в человеческом понимании, она пересчитывает вероятности слов, чтобы текст звучал более «гладко» и «правильно» с точки зрения её обучения. В итоге ты получаешь не исправленный оригинал, а версию нейросети на заданную тему.

Это как если бы ты принес чертеж ракетного двигателя опытному филологу и попросил «сделать получше». Он поправит запятые, заменит сухие термины на красивые эпитеты и сделает текст летящим, но двигатель после этого не заведется. Модель тянет одеяло на себя: она отлично справляется с плавностью и терминологией, но абсолютно слепа к точности фактов. Формально стало красивее, по факту — потерялся смысл.

Что реально работает в этом процессе: стилистическая полировка и выравнивание тона. Если тебе нужно, чтобы деревянный текст лендинга зазвучал как бодрый питч, LLM справится на ура. Она добавит нужный лоск и уберет канцелярит. Но если в тексте была фактическая лажа или тонкая логическая ошибка, модель её либо проигнорирует, либо «загаллюцинирует» сверху что-то свое. Исследование четко говорит: рефайнмент не лечит содержание, он только меняет упаковку.

Этот принцип универсален для любой работы с контентом — от перевода книг до написания кода или писем клиентам. Тестировали это на литературе, но в маркетинге или саппорте всё то же самое: LLM-редактор — это не эксперт по теме, а мастер по макияжу. Она может накрасить губы твоему тексту, но не пересадит ему мозг. Если исходник был логически мертв, красивый труп в выдаче тебе не поможет.

Короче: забудь про промпты в духе «найди и исправь все ошибки», это полная фигня, которая часто делает только хуже. Модель не умеет в самодиагностику и часто видит проблемы там, где их нет, пропуская реальные косяки. Используй доработку только для финального лоска и стиля. Если важна точность — проверяй факты руками, иначе рискуешь получить текст, который звучит идеально, но не имеет никакого отношения к реальности. Стиль — это к AI, смысл — это к тебе.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с