TL;DR
Когда просишь LLM написать ответ на сложный вопрос — медицинский, юридический, HR — она по умолчанию пишет сложнее, формальнее и эмоционально тяжелее, чем нужно читателю. Но если дать ей готовый экспертный текст и попросить его улучшить — качество резко вырастает по всем параметрам одновременно.
Дефолтные ответы LLM на серьёзные темы переполнены тяжёлой эмоциональной окраской. В исследовании: врачи давали негативно окрашенные ответы в ~37% случаев, а модели — в 43–45%. Плюс языковая сложность: GPT-5 и Claude пишут на уровне 17-го класса обучения, врачи — на уровне 11–12-го. Это не потому что модели «думают плохо» — у них просто нет внутреннего счётчика, который говорит «стоп, это слишком сложно и мрачно для пациента».
Rephrase-режим решает это в одном промпте: даёшь модели оригинальный экспертный текст и просишь переписать с улучшенной ясностью и тоном, сохранив смысл. Это работает лучше, чем просто добавить инструкцию «будь эмпатичным» (Empathy prompt), и лучше, чем просить модель ответить с нуля.
Схема метода
Исследовали три конфигурации — от слабой к сильной:
КОНФИГУРАЦИЯ 1 (Baseline):
Вопрос → LLM → ответ самостоятельно
Результат: сложный язык + эмоциональная тяжесть
КОНФИГУРАЦИЯ 2 (Empathy Prompt):
Вопрос + инструкция «отвечай с эмпатией» → LLM → ответ
Результат: проще по языку, мягче по тону, НО смысл теряется
КОНФИГУРАЦИЯ 3 (Rephrase — победитель):
Вопрос + готовый экспертный ответ + инструкция «улучши ясность и тон» → LLM → переработанный ответ
Результат: максимальная точность смысла + лучшая читаемость + сбалансированный тон
Все три конфигурации — в одном запросе, без дополнительных шагов.
Пример применения
Задача: Врач написал заключение после осмотра — сухое, медицинским языком. Надо отправить пациенту так, чтобы он понял и не испугался лишний раз.
Промпт:
Ты помогаешь врачу улучшить общение с пациентом.
Вот оригинальный ответ врача:
«По результатам осмотра выявлены признаки дегенеративно-дистрофических
изменений поясничного отдела позвоночника L4-L5. Рекомендовано: НПВП
курсом 10 дней, ЛФК, ограничение осевой нагрузки. Контроль через месяц.»
Вопрос пациента был: «Доктор, что со мной? Это серьёзно?»
Перепиши ответ врача так, чтобы:
— пациент понял без медицинского образования
— тон был спокойным и поддерживающим, без лишней тревоги
— все рекомендации врача сохранились полностью, ничего не потеряй и не добавляй от себя
— объём примерно такой же
Результат: Модель выдаст переформулированный ответ: те же рекомендации на простом языке, с объяснением что это значит на практике, без пугающей терминологии. Смысл сохранится — тон изменится.
Почему это работает
LLM обучена на огромном массиве медицинских, научных и профессиональных текстов — и они все пишут сложно. Без команды «упрости» модель воспроизводит этот стиль: длинные предложения, термины, безличный тон.
Когда просишь написать с нуля, модели легче «скатиться» к привычному сложному стилю. Когда даёшь готовый текст, модель работает как редактор: у неё есть якорь — оригинал — и она не теряет смысл, а только улучшает форму. Это снижает риск галлюцинаций и смысловых потерь.
Empathy prompt работает хуже, потому что просит одновременно придумать содержание и держать правильный тон. Это два конкурирующих требования. Rephrase их разделяет: содержание уже есть (экспертный текст), остаётся только улучшить форму.
Рычаги управления:
- Список критериев улучшения (ясность / тон / длина) → перечисли явно, по одному — модель точнее держит каждый параметр
- Целевая аудитория («для человека без медицинского образования», «для топ-менеджера без юридического бэкграунда») → кардинально меняет итоговую сложность текста
- Явный запрет добавлять («не добавляй ничего от себя») → критично для точности, особенно в медицине и праве
- Сравнение с оригиналом («покажи что изменил и почему») → полезно когда нужно проверить или объяснить правки заказчику
Шаблон промпта
Ты помогаешь улучшить коммуникацию с {аудитория}.
Вот оригинальный {тип_текста} от эксперта:
«{экспертный_текст}»
Контекст: {вопрос_или_ситуация}
Перепиши текст так, чтобы:
— {аудитория} поняла без специальных знаний
— тон был {нужный_тон: спокойным / поддерживающим / нейтральным / уверенным}
— весь смысл и все ключевые детали оригинала сохранились
— ничего не добавляй от себя
Что подставлять:
- {аудитория} — пациент, клиент, сотрудник без профессионального бэкграунда
- {тип_текста} — заключение, письмо, договор, инструкция
- {экспертный_текст} — исходник: текст врача, юриста, финансиста
- {вопрос_или_ситуация} — что спросил человек или какой контекст
- {нужный_тон} — выбери один, не перечисляй все сразу
Применение шире медицины: HR-политики → для сотрудников, юридические письма → для клиентов, финансовые отчёты → для инвесторов без финансового образования, технические ТЗ → для заказчика.
🚀 Быстрый старт — вставь в чат:
Вот шаблон Rephrase-режима. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит про аудиторию и целевой тон — потому что именно эти параметры определяют итоговый стиль переработки. Она возьмёт паттерн из шаблона и адаптирует под твою ситуацию.
Ограничения
⚠️ Empathy prompt не заменяет Rephrase: Если добавить инструкцию «будь эмпатичным» без оригинального текста, смысловая точность снижается. Модель фокусируется на тоне и начинает терять детали.
⚠️ Нужен качественный исходник: Rephrase-режим усиливает хороший текст. Если оригинал содержит ошибки или неточности — они сохранятся. Модель редактирует форму, не проверяет факты.
⚠️ Специализированные модели не всегда лучше: Med-PaLM (медицинская модель) не выигрывала у общих GPT-5 и Mixtral по всем параметрам. Для коммуникации навык «писать понятно» важнее узкой доменной подготовки.
⚠️ Пациенты ≠ эксперты в оценке: Пациенты предпочитали переработанные варианты, но врачи-эксперты оценивали их ниже по точности. Улучшение восприятия ≠ улучшение медицинской корректности.
Как исследовали
Команда из Неаполя и Северо-Западного университета взяла два датасета: 47 000 медицинских вопрос-ответов из NIH (официальные врачебные материалы) и 465 реальных диалогов врач-пациент с онлайн-консультационной платформы iCliniq. Из-за стоимости запросов к коммерческим моделям отобрали репрезентативную выборку из 50 вопросов — с умным кластерингом по читаемости, чтобы охватить весь диапазон сложности текстов.
Каждую модель (Mixtral, Med-PaLM 2, GPT-5, Gemini 2.5 Pro, Claude Sonnet 4.5) гоняли в трёх режимах и сравнивали с ответами реальных врачей по трём метрикам: смысловая точность (насколько близко к тому, что сказал врач), читаемость (уровень образования, необходимый для понимания текста) и эмоциональный тон (соотношение позитив/негатив, наличие эмпатии).
Интересная деталь дизайна: Gemini 2.5 Pro отказывалась отвечать без достаточного контекста — встроенная защита от клинически ненадёжных ответов. Это само по себе находка: разные модели по-разному обрабатывают медицинские риски. Главный вывод — Rephrase победил во всех конфигурациях и у всех моделей, что делает находку надёжной независимо от конкретной модели.
Адаптации и экстраполяции
🔧 Техника: двойная аудитория → разные версии одного текста
Rephrase-шаблон можно запустить дважды с разными
{аудитория}на один и тот же экспертный текст. Например, один и тот же медицинский протокол → версия для пациента и версия для менеджера страховой. Структура та же, глубина разная.
🔧 Техника: добавить "покажи что изменил" → прозрачный редакторский процесс
Добавь в конец промпта:
После текста добавь короткий список: что изменил и почему. Это даёт контроль над правками и помогает объяснить клиенту/пациенту почему формулировка изменилась. Убери инструкцию, если нужен только результат без объяснений.
🔧 Комбинация с Chain-of-Thought для критических текстов:
Перед Rephrase-промптом добавь шаг:
Сначала выпиши все ключевые факты и рекомендации из оригинала по пунктам. Затем перепиши текст, сохранив каждый из них.Двухшаговый подход снижает риск потери деталей при переработке сложных технических текстов.
Ресурсы
Название: "Can 'AI' Be a Doctor? A Study of Empathy, Readability, and Alignment in Clinical LLMs"
Датасеты: MedQuAD (NIH), iCliniqQAs
Авторы: Mariano Barone, Francesco Di Serio, Roberto Moio, Marco Postiglione, Giuseppe Riccio, Antonio Romano, Vincenzo Moscato
Организации: University of Naples Federico II (DIETI), University of Campania "Luigi Vanvitelli", Northwestern University (McCormick School)
