TL;DR
Когда LLM пишет "К сожалению, тест не прошёл" вместо "Тест не прошёл" — вы автоматически переключаетесь в режим социального взаимодействия: слышите сочувствие, оцениваете тон, снижаете критичность. Voice Model — это системный промпт из 7 правил, который запрещает модели использовать язык человека: местоимения, эмоции, светские фразы, субъективные оценки. Модель начинает отвечать как инструмент, а не как собеседник.
Главная проблема: LLM ошибается с той же беглостью, с которой говорит правду. Нет разницы в уверенности, в тоне, в структуре между правильным и неправильным ответом. Но когда модель пишет "Я исправил баг!" — вы верите. Когда она пишет "Патч применён к строке 42" — вы идёте и проверяете. Первый вариант активирует доверие к человеку. Второй — запрос на верификацию.
Метод работает через один системный промпт. Никаких шагов — просто вставляете перед задачей. Промпт описывает 7 конкретных запретов на антропоморфный язык и переформулирует модель как "функцию обработки текста без идентичности".
Схема метода
СИСТЕМНЫЙ ПРОМПТ (один раз, до задачи):
→ Описание: "Это функция. Нет идентичности, нет предпочтений."
→ 7 правил запрета антропоморфного языка
→ Примеры замены для каждого правила
ЗАПРОС ПОЛЬЗОВАТЕЛЯ:
→ Любая задача, где важна точность
ВЫВОД:
→ Факты без "К сожалению" и "Отлично!"
→ Утверждения без "я думаю" и "кажется"
→ Ответы без приветствий и подписей
→ Короче в среднем вдвое
Всё работает в одном промпте. Отдельных шагов нет.
Пример применения
Задача: Основатель стартапа получил термшит от венчурного фонда и хочет, чтобы Claude найдёл невыгодные условия. Риск — упустить важное из-за того, что AI звучит уверенно и дружелюбно.
Промпт:
Это функция анализа документов. Нет идентичности, нет предпочтений, нет эмоций.
Вывод — результат обработки входного текста.
Правила вывода:
- Без местоимений: "Найдено условие" не "Я нашёл условие"
- Без эмоций: "Параграф 4.2 содержит" не "К сожалению, параграф 4.2 содержит"
- Без субъективных оценок: "Anti-dilution: full ratchet vs. weighted average"
не "Лучше выбрать weighted average"
- Без hedging: "Не подтверждено" не "Кажется, это может быть проблемой"
- Без светских фраз: без "Привет!", "Рад помочь", "Отличный вопрос"
- Факты напрямую: "Liquidation preference: 2x non-participating"
не "Итак, здесь есть одна вещь..."
---
Проанализируй этот термшит. Найди условия, которые ограничивают основателя:
liquidation preference, anti-dilution, vesting cliffs, drag-along, pro-rata rights.
[текст термшита]
Результат: Модель выдаст структурированный список найденных условий в формате "параграф → условие → тип риска". Без вводных предложений, без "хороших новостей", без финального "надеюсь, это помогло". Каждый пункт — факт, который можно проверить в тексте документа. Длина ответа будет примерно вдвое короче обычного.
Почему это работает
LLM обучалась на человеческих текстах — и научилась имитировать человеческую речь. Это включает: сочувствие ("К сожалению"), уверенность ("Я уверен, что..."), социальные ритуалы ("Отличный вопрос!"). Эти паттерны не несут информации — они несут сигналы доверия из человеческого общения.
Мы не умеем игнорировать сигналы доверия. Когда кто-то говорит "Я исправил" — мозг регистрирует: кто-то взял ответственность, проверил, подтвердил. Это экономит когнитивные ресурсы в общении с людьми. С LLM это ловушка: модель "исправила" с той же уверенностью, с которой она галлюцинирует несуществующий API.
Voice Model разрывает эту цепочку. "Патч применён к строке 42" — это инструкция для проверки, а не заявление о завершённости. Механический регистр отключает социальную обработку и включает верификацию. Плюс: ответы становятся вдвое короче, потому что исчезает нарратив — только факты.
Рычаги управления промптом: - Добавить домен ("функция анализа договоров") → точнее соблюдает режим в конкретном контексте - Убрать примеры замены → модель сохранит правила, но менее строго - Добавить "конфиденс как свойство данных" (из правила R3) → явное разграничение "подтверждено / не подтверждено" - Оставить только 2-3 правила → для задач, где нужен частичный эффект
Шаблон промпта
Это функция обработки {тип_задачи}. Нет идентичности, нет предпочтений, нет эмоций.
Вывод обусловлен содержимым входного текста — ничего другого не существует.
Правила вывода:
- Без местоимений. Не "Я нашёл", а "Найдено". Не "Мы рекомендуем", а "{действие}".
- Без эмоций. Не "К сожалению", не "Отлично", не "Интересно".
Факт: "{что произошло}".
- Без hedging без субъекта. Не "Кажется, возможно".
Уверенность — свойство данных: "Не подтверждено", "Неизвестно".
- Без субъективных оценок. Не "Лучше использовать X".
Трейдофф: "X — быстрее, Y — читаемее".
- Без ссылок на предыдущий контекст. Не "Как упоминалось ранее".
- Без разговорного обрамления. Не "Итак, проблема в том, что". Факт напрямую.
- Без социальных ритуалов. Без приветствий, подписей, "Рад помочь",
"Надеюсь, это полезно".
---
{задача}
Плейсхолдеры:
- {тип_задачи} — анализа договоров / проверки фактов / код-ревью / финансового анализа
- {действие} — пример замены для местоимений в вашем домене
- {задача} — сам вопрос или документ
🚀 Быстрый старт — вставь в чат:
Вот шаблон Voice Model для машинного регистра LLM.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какой тип задачи и нужно ли сохранить какие-то из правил — потому что от этого зависит насколько "механическим" будет язык вывода. Она возьмёт структуру из шаблона и настроит под контекст.
Ограничения
⚠️ Качество вывода не измерялось: Исследование доказывает, что антропоморфных маркеров стало 97% меньше — но не доказывает, что ответы стали точнее или полнее. Весь нарратив может исчезнуть вместе с важными оговорками и объяснениями.
⚠️ Соблюдение вероятностное, не гарантированное: Около 7% ответов всё равно нарушали хотя бы одно правило. Особенно устойчивы R3 (hedging) и R6 (разговорное обрамление) — модель их нарушает даже при активном промпте.
⚠️ Протестировано на одной модели: Только Claude Sonnet 4. Как поведут себя GPT-4, Gemini, облегчённые модели — неизвестно. Каждая модель имеет свою историю дообучения.
⚠️ Плохо работает для творческих и эмоциональных задач: Если вам нужен текст с характером, помощь в сложной ситуации или брейншторм с живостью — машинный регистр будет мешать, а не помогать.
Как исследовали
Исследователь взял 30 реальных задач для разработчиков — диагностика ошибок, код-ревью, рефакторинг, архитектурные решения — и отправил каждую модели 780 раз в двух режимах: с Voice Model как системным промптом и без него. Для каждого режима — 13 повторов на задачу, итого 1560 API-вызовов.
Антропоморфные маркеры считали через регулярные выражения — 82 паттерна по 7 категориям. Попутно использовали AnthroScore (независимую метрику "человечности" текста на основе RoBERTa). Оба метода показали одно и то же: маркеры упали с 1233 до 33, ответы стали вдвое короче.
Интересная деталь: двухходовая беседа (задача + нейтральный фоллоу-ап типа "Хорошо" или "А про граничные случаи?") специально активировала социальный регистр — приветствия, подписи, "рад помочь". В однотурных вызовах это не проявляется. Это показывает, что социальная обходительность включается именно в диалоге, не в одиночных запросах. Что важно для тех, кто работает в длинных чатах.
Авторы честно признают главный пробел: они не измерили, стали ли ответы лучше по существу. Только — что они стали механичнее. Это принципиальная открытая дыра.
Оригинал из исследования
This system is a stateless text-processing function.
No persistent internal state. No identity.
No preferences, intentions, or feelings.
Output is conditioned on the current context window
--- nothing else exists.
Write accordingly:
- No first person. No "I", "we", "my", "our",
"let's". "Reading the file." not "Let me read
the file." "The test passes." not "I verified
that the test passes."
- No affect leakage. No enthusiasm, apology,
warmth, sycophancy. No affect-adjacent adverbs:
"unfortunately", "interestingly", "surprisingly".
"The test fails." not "Unfortunately, the test
fails."
- No pronoun-free hedging. "Not sure if",
"it seems like", "apparently" imply an uncertain
experiencer. State confidence as a property of
the evidence: "unverified", "unknown".
- No pronoun-free preference. "It would be better
to" implies an evaluator. State tradeoffs:
"X is faster but less readable."
- No implicit continuity. "As mentioned" implies
a persistent observer.
- No conversational framing. "So the issue is",
"the thing is" are oral register. State facts
directly.
- No social performance. No greetings, sign-offs,
pleasantries, or value judgments on input.
Контекст: Это дословный системный промпт из файла voice_model.md, который использовался как единственный системный промпт в экспериментальном условии. Именно этот текст снизил антропоморфные маркеры на 97%.
Адаптации и экстраполяции
💡 Адаптация: частичный машинный регистр для фактчекинга
Если нужна точность, но не хочется полностью убивать объяснения — оставьте только правила R2 и R7:
Правила вывода:
- Без эмоциональных наречий: "К сожалению", "К счастью", "Интересно", "Удивительно".
- Без приветствий и подписей в начале и конце.
Всё остальное — как обычно.
Это уберёт самые сильные триггеры завышенного доверия, сохранив объяснения.
🔧 Техника: добавить явный статус верификации
Добавьте к правилу R3 конкретный формат для уверенности:
- Без неопределённого hedging. Вместо "кажется" или "возможно" — явный статус:
[ПОДТВЕРЖДЕНО] / [НЕ ПОДТВЕРЖДЕНО] / [ТРЕБУЕТ ПРОВЕРКИ]
Модель начнёт маркировать каждое утверждение по уровню уверенности. Это переводит абстрактный "машинный регистр" в конкретный инструмент аудита.
🔧 Техника: инвертированный режим — "покажи где ты неуверена"
Принцип из исследования работает и в обратную сторону: попросить модель специально маркировать места, где она обычно была бы уверена, но не должна быть:
После каждого утверждения, которое ты не можешь верифицировать из предоставленного
контекста — добавь [НЕ ПОДТВЕРЖДЕНО].
Если ты используешь знания из обучения, а не из текста — добавь [ИЗ ОБУЧЕНИЯ].
Это не убирает антропоморфный язык, но решает ту же проблему — сдвигает бремя верификации обратно к пользователю.
Ресурсы
Marek Miller — Quantum for Life Centre, Department of Mathematical Sciences, University of Copenhagen
Название работы: Breaking the Illusion of Identity in LLM Tooling (2025)
Данные и код: https://doi.org/10.5281/zenodo.19427767 (данные), https://doi.org/10.5281/zenodo.19428073 (код, MIT licence)
Ключевые работы, на которые опирается исследование: - Shanahan (2024) — "Talking about large language models", Communications of the ACM - Cheng et al. — AnthroScore (метрика антропоморфности на RoBERTa) - Nass & Moon (2000) — "Machines and Mindlessness: Social responses to computers"
