3,583 papers
arXiv:2604.20791 76 22 апр. 2026 г. FREE

Rephrase-режим: LLM как редактор экспертного текста работает лучше, чем самостоятельный автор

КЛЮЧЕВАЯ СУТЬ
LLM пишет как профессор для коллег. GPT-5 и Claude выдают тексты на уровне сложности 17-го класса обучения — врачи в реальности пишут на 11-12-м. Пациент просто не понимает. Rephrase-режим позволяет переводить любой экспертный текст на человеческий язык за один промпт, без потери смысла и галлюцинаций. Дай модели готовый текст и попроси улучшить форму — не проси писать с нуля. Она работает как редактор: оригинал держит содержание, а тон и сложность меняются точно под аудиторию.
Адаптировать под запрос

TL;DR

Когда просишь LLM написать ответ на сложный вопрос — медицинский, юридический, HR — она по умолчанию пишет сложнее, формальнее и эмоционально тяжелее, чем нужно читателю. Но если дать ей готовый экспертный текст и попросить его улучшить — качество резко вырастает по всем параметрам одновременно.

Дефолтные ответы LLM на серьёзные темы переполнены тяжёлой эмоциональной окраской. В исследовании: врачи давали негативно окрашенные ответы в ~37% случаев, а модели — в 43–45%. Плюс языковая сложность: GPT-5 и Claude пишут на уровне 17-го класса обучения, врачи — на уровне 11–12-го. Это не потому что модели «думают плохо» — у них просто нет внутреннего счётчика, который говорит «стоп, это слишком сложно и мрачно для пациента».

Rephrase-режим решает это в одном промпте: даёшь модели оригинальный экспертный текст и просишь переписать с улучшенной ясностью и тоном, сохранив смысл. Это работает лучше, чем просто добавить инструкцию «будь эмпатичным» (Empathy prompt), и лучше, чем просить модель ответить с нуля.


🔬

Схема метода

Исследовали три конфигурации — от слабой к сильной:

КОНФИГУРАЦИЯ 1 (Baseline):
Вопрос → LLM → ответ самостоятельно
Результат: сложный язык + эмоциональная тяжесть

КОНФИГУРАЦИЯ 2 (Empathy Prompt):
Вопрос + инструкция «отвечай с эмпатией» → LLM → ответ
Результат: проще по языку, мягче по тону, НО смысл теряется

КОНФИГУРАЦИЯ 3 (Rephrase — победитель):
Вопрос + готовый экспертный ответ + инструкция «улучши ясность и тон» → LLM → переработанный ответ
Результат: максимальная точность смысла + лучшая читаемость + сбалансированный тон

Все три конфигурации — в одном запросе, без дополнительных шагов.


🚀

Пример применения

Задача: Врач написал заключение после осмотра — сухое, медицинским языком. Надо отправить пациенту так, чтобы он понял и не испугался лишний раз.

Промпт:

Ты помогаешь врачу улучшить общение с пациентом.

Вот оригинальный ответ врача:
«По результатам осмотра выявлены признаки дегенеративно-дистрофических 
изменений поясничного отдела позвоночника L4-L5. Рекомендовано: НПВП 
курсом 10 дней, ЛФК, ограничение осевой нагрузки. Контроль через месяц.»

Вопрос пациента был: «Доктор, что со мной? Это серьёзно?»

Перепиши ответ врача так, чтобы:
— пациент понял без медицинского образования
— тон был спокойным и поддерживающим, без лишней тревоги
— все рекомендации врача сохранились полностью, ничего не потеряй и не добавляй от себя
— объём примерно такой же

Результат: Модель выдаст переформулированный ответ: те же рекомендации на простом языке, с объяснением что это значит на практике, без пугающей терминологии. Смысл сохранится — тон изменится.


🧠

Почему это работает

LLM обучена на огромном массиве медицинских, научных и профессиональных текстов — и они все пишут сложно. Без команды «упрости» модель воспроизводит этот стиль: длинные предложения, термины, безличный тон.

Когда просишь написать с нуля, модели легче «скатиться» к привычному сложному стилю. Когда даёшь готовый текст, модель работает как редактор: у неё есть якорь — оригинал — и она не теряет смысл, а только улучшает форму. Это снижает риск галлюцинаций и смысловых потерь.

Empathy prompt работает хуже, потому что просит одновременно придумать содержание и держать правильный тон. Это два конкурирующих требования. Rephrase их разделяет: содержание уже есть (экспертный текст), остаётся только улучшить форму.

Рычаги управления: - Список критериев улучшения (ясность / тон / длина) → перечисли явно, по одному — модель точнее держит каждый параметр - Целевая аудитория («для человека без медицинского образования», «для топ-менеджера без юридического бэкграунда») → кардинально меняет итоговую сложность текста - Явный запрет добавлять («не добавляй ничего от себя») → критично для точности, особенно в медицине и праве - Сравнение с оригиналом («покажи что изменил и почему») → полезно когда нужно проверить или объяснить правки заказчику


📋

Шаблон промпта

Ты помогаешь улучшить коммуникацию с {аудитория}.

Вот оригинальный {тип_текста} от эксперта:
«{экспертный_текст}»

Контекст: {вопрос_или_ситуация}

Перепиши текст так, чтобы:
— {аудитория} поняла без специальных знаний
— тон был {нужный_тон: спокойным / поддерживающим / нейтральным / уверенным}
— весь смысл и все ключевые детали оригинала сохранились
— ничего не добавляй от себя

Что подставлять: - {аудитория} — пациент, клиент, сотрудник без профессионального бэкграунда - {тип_текста} — заключение, письмо, договор, инструкция - {экспертный_текст} — исходник: текст врача, юриста, финансиста - {вопрос_или_ситуация} — что спросил человек или какой контекст - {нужный_тон} — выбери один, не перечисляй все сразу

Применение шире медицины: HR-политики → для сотрудников, юридические письма → для клиентов, финансовые отчёты → для инвесторов без финансового образования, технические ТЗ → для заказчика.


🚀 Быстрый старт — вставь в чат:

Вот шаблон Rephrase-режима. Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит про аудиторию и целевой тон — потому что именно эти параметры определяют итоговый стиль переработки. Она возьмёт паттерн из шаблона и адаптирует под твою ситуацию.


⚠️

Ограничения

⚠️ Empathy prompt не заменяет Rephrase: Если добавить инструкцию «будь эмпатичным» без оригинального текста, смысловая точность снижается. Модель фокусируется на тоне и начинает терять детали.

⚠️ Нужен качественный исходник: Rephrase-режим усиливает хороший текст. Если оригинал содержит ошибки или неточности — они сохранятся. Модель редактирует форму, не проверяет факты.

⚠️ Специализированные модели не всегда лучше: Med-PaLM (медицинская модель) не выигрывала у общих GPT-5 и Mixtral по всем параметрам. Для коммуникации навык «писать понятно» важнее узкой доменной подготовки.

⚠️ Пациенты ≠ эксперты в оценке: Пациенты предпочитали переработанные варианты, но врачи-эксперты оценивали их ниже по точности. Улучшение восприятия ≠ улучшение медицинской корректности.


🔍

Как исследовали

Команда из Неаполя и Северо-Западного университета взяла два датасета: 47 000 медицинских вопрос-ответов из NIH (официальные врачебные материалы) и 465 реальных диалогов врач-пациент с онлайн-консультационной платформы iCliniq. Из-за стоимости запросов к коммерческим моделям отобрали репрезентативную выборку из 50 вопросов — с умным кластерингом по читаемости, чтобы охватить весь диапазон сложности текстов.

Каждую модель (Mixtral, Med-PaLM 2, GPT-5, Gemini 2.5 Pro, Claude Sonnet 4.5) гоняли в трёх режимах и сравнивали с ответами реальных врачей по трём метрикам: смысловая точность (насколько близко к тому, что сказал врач), читаемость (уровень образования, необходимый для понимания текста) и эмоциональный тон (соотношение позитив/негатив, наличие эмпатии).

Интересная деталь дизайна: Gemini 2.5 Pro отказывалась отвечать без достаточного контекста — встроенная защита от клинически ненадёжных ответов. Это само по себе находка: разные модели по-разному обрабатывают медицинские риски. Главный вывод — Rephrase победил во всех конфигурациях и у всех моделей, что делает находку надёжной независимо от конкретной модели.


💡

Адаптации и экстраполяции

🔧 Техника: двойная аудитория → разные версии одного текста

Rephrase-шаблон можно запустить дважды с разными {аудитория} на один и тот же экспертный текст. Например, один и тот же медицинский протокол → версия для пациента и версия для менеджера страховой. Структура та же, глубина разная.

🔧 Техника: добавить "покажи что изменил" → прозрачный редакторский процесс

Добавь в конец промпта: После текста добавь короткий список: что изменил и почему. Это даёт контроль над правками и помогает объяснить клиенту/пациенту почему формулировка изменилась. Убери инструкцию, если нужен только результат без объяснений.

🔧 Комбинация с Chain-of-Thought для критических текстов:

Перед Rephrase-промптом добавь шаг: Сначала выпиши все ключевые факты и рекомендации из оригинала по пунктам. Затем перепиши текст, сохранив каждый из них. Двухшаговый подход снижает риск потери деталей при переработке сложных технических текстов.


🔗

Ресурсы

Название: "Can 'AI' Be a Doctor? A Study of Empathy, Readability, and Alignment in Clinical LLMs"

Датасеты: MedQuAD (NIH), iCliniqQAs

Авторы: Mariano Barone, Francesco Di Serio, Roberto Moio, Marco Postiglione, Giuseppe Riccio, Antonio Romano, Vincenzo Moscato

Организации: University of Naples Federico II (DIETI), University of Campania "Luigi Vanvitelli", Northwestern University (McCormick School)


📋 Дайджест исследования

Ключевая суть

LLM пишет как профессор для коллег. GPT-5 и Claude выдают тексты на уровне сложности 17-го класса обучения — врачи в реальности пишут на 11-12-м. Пациент просто не понимает. Rephrase-режим позволяет переводить любой экспертный текст на человеческий язык за один промпт, без потери смысла и галлюцинаций. Дай модели готовый текст и попроси улучшить форму — не проси писать с нуля. Она работает как редактор: оригинал держит содержание, а тон и сложность меняются точно под аудиторию.

Принцип работы

Обычный запрос «напиши эмпатично» ставит перед моделью два конкурирующих требования одновременно: придумай содержание и держи правильный тон. Она выбирает тон — и теряет точность. Прикол: добавить инструкцию «будь эмпатичным» без исходного текста — хуже, чем вообще её не добавлять. Rephrase разделяет задачи: содержание уже есть в оригинале, остаётся только улучшить форму. Это как дать переводчику готовый текст вместо того, чтобы просить его самому придумать что написать.

Почему работает

LLM обучена на миллионах научных, медицинских и юридических публикаций. Все они написаны сложно. Без явного якоря модель воспроизводит этот стиль — это её «нормальный» регистр. Готовый текст меняет режим работы: модель не изобретает содержание, а только меняет обёртку. Именно поэтому точность сохраняется, а галлюцинации резко падают — нет соблазна что-то придумать. Ещё один неожиданный вывод из исследования: специализированная медицинская модель Med-PaLM не выигрывала у обычного GPT-5 по понятности. Умение писать просто важнее узких доменных знаний.

Когда применять

Медицина, право, финансы, HR — для любого случая, когда эксперт написал правильно, но непонятно для читателя. Особенно когда цена непонимания высока: пациент игнорирует рекомендации, клиент подписывает договор не разобравшись в условиях, сотрудник не читает политику компании. НЕ подходит если исходный текст содержит ошибки или неточности — модель редактирует форму, факты не проверяет. Паршивый оригинал Rephrase не спасёт.

Мини-рецепт

1. Возьми экспертный текст: заключение врача, юридическое письмо, финансовый отчёт, HR-документ — любой материал, написанный правильно, но тяжело
2. Назови аудиторию: «для пациента без медицинского образования», «для клиента без юридического бэкграунда», «для сотрудника без финансовой подготовки» — конкретно, не «для обычного человека»
3. Задай тон одним словом: спокойный, поддерживающий, нейтральный, уверенный — не перечисляй сразу всё, выбери одно
4. Запрети добавлять от себя: «не добавляй ничего от себя, все детали и рекомендации из оригинала сохрани полностью» — это критично для медицины и права

Примеры

[ПЛОХО] : Напиши эмпатичный ответ пациенту про его диагноз: дегенеративно-дистрофические изменения поясничного отдела L4-L5
[ХОРОШО] : Вот ответ врача: «По результатам осмотра выявлены признаки дегенеративно-дистрофических изменений поясничного отдела позвоночника L4-L5. Рекомендовано: НПВП курсом 10 дней, ЛФК, ограничение осевой нагрузки. Контроль через месяц.» Перепиши для пациента без медицинского образования. Тон — спокойный. Все рекомендации сохрани полностью. Ничего от себя не добавляй.
Источник: Can 'AI' Be a Doctor? A Study of Empathy, Readability, and Alignment in Clinical LLMs
ArXiv ID: 2604.20791 | Сгенерировано: 2026-04-23 05:23

Проблемы LLM

ПроблемаСутьКак обойти
Инструкция «пиши мягче» съедает смыслПросишь модель написать с нуля и добавляешь «будь эмпатичным», «пиши понятно». Модель фокусируется на тоне. Теряет детали и точность. Два требования одновременно — и ни одно не выполнено до конца. Проблема для любых задач где важны и форма, и содержаниеРазделяй задачи. Сначала — готовый экспертный текст. Потом — просьба улучшить только форму. Содержание уже есть, менять нечего — модель занимается только стилем

Методы

МетодСуть
Rephrase-режим — редактор вместо автораДай модели готовый текст эксперта. Попроси переписать: «сохрани весь смысл, улучши ясность и тон». Явно укажи: «не добавляй ничего от себя». Укажи аудиторию: «для человека без медицинского образования». Почему работает: Оригинал — якорь. Модель не изобретает содержание, а только меняет форму. Так не теряются детали и не появляются выдумки. Когда применять: экспертный текст нужно передать неспециалисту — медицина, право, финансы, HR. Когда не работает: если исходник содержит ошибки — они сохранятся. Модель редактирует форму, факты не проверяет
📖 Простыми словами

Can "AI" Be a Doctor? A Study of Empathy, Readability, and Alignment in ClinicalLLMs

arXiv: 2604.20791

Когда ты просишь нейронку выдать медицинский совет или объяснить диагноз с нуля, она включает режим душного профессора. Проблема в том, что LLM обучались на тоннах научных статей и учебников, где нормальным считается писать максимально сухо, длинно и непонятно. В итоге на выходе получается канцелярский шум, который пугает пациента и заставляет его чувствовать себя идиотом. Модель просто копирует стиль своих обучающих данных, где «человеческий фактор» и простота изложения стоят на последнем месте.

Это как если бы ты попросил юриста объяснить условия договора, а он в ответ начал зачитывать тебе Гражданский кодекс целиком. Формально он прав, но ты ничего не понял и только сильнее разнервничался. Модель без четкого пинка не понимает, что между «быть точным» и «быть понятным» есть огромная разница, и по умолчанию выбирает безопасную сложность, которая в реальности только вредит.

Исследование показало, что лучше всего работает метод улучшения экспертного черновика. Вместо того чтобы заставлять AI генерировать текст из пустоты, ей скармливают сухие факты от врача и просят их «причесать». В этом случае включается контролируемая эмпатия: модель сохраняет медицинскую точность, но переводит её на человеческий язык, убирая термины-убийцы и добавляя нормальный тон. Это работает в разы лучше, чем просто промпт "напиши как врач", который обычно выдает пафосную ерунду.

Хотя тестировали это на врачах, принцип универсален для любой сложной ниши. Будь то юридические консультации, техническая поддержка или финансовые отчеты — везде, где есть риск перегрузить человека терминами, нужно использовать схему «экспертный ввод + AI-редактор». Это единственный способ заставить машину не просто выдавать данные, а реально общаться с пользователем, не превращаясь в бездушный генератор справок.

Короче: не давай нейронке писать важные вещи с чистого листа, иначе получишь нечитаемую простыню. Используй её как фильтр для своих мыслей — закидывай факты и требуй упрощения. Качество текста растет по всем фронтам, когда у модели есть жесткий каркас из реальности и задача сделать его понятным для живого человека. Кто продолжит слать клиентам «сырые» ответы от AI, тот быстро обнаружит, что люди просто перестали их читать.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с