3,583 papers
arXiv:2604.07398 88 8 апр. 2026 г. FREE

Voice Model: 7 правил вывода, которые превращают LLM из "коллеги" в инструмент

КЛЮЧЕВАЯ СУТЬ
«Я исправил баг» — и вы идёте дальше. «Патч применён к строке 42» — и вы идёте проверять. Та же информация, но разный режим в голове. Voice Model позволяет убрать весь человеческий язык из ответов модели — через один системный промпт с 7 запретами, без дообучения. Фишка: метод не делает модель умнее — он убирает сигналы, которые отключают вашу критичность. Результат в цифрах: 97% меньше антропоморфных маркеров, ответы вдвое короче — исчезает нарратив, остаются только факты.
Адаптировать под запрос

TL;DR

Когда LLM пишет "К сожалению, тест не прошёл" вместо "Тест не прошёл" — вы автоматически переключаетесь в режим социального взаимодействия: слышите сочувствие, оцениваете тон, снижаете критичность. Voice Model — это системный промпт из 7 правил, который запрещает модели использовать язык человека: местоимения, эмоции, светские фразы, субъективные оценки. Модель начинает отвечать как инструмент, а не как собеседник.

Главная проблема: LLM ошибается с той же беглостью, с которой говорит правду. Нет разницы в уверенности, в тоне, в структуре между правильным и неправильным ответом. Но когда модель пишет "Я исправил баг!" — вы верите. Когда она пишет "Патч применён к строке 42" — вы идёте и проверяете. Первый вариант активирует доверие к человеку. Второй — запрос на верификацию.

Метод работает через один системный промпт. Никаких шагов — просто вставляете перед задачей. Промпт описывает 7 конкретных запретов на антропоморфный язык и переформулирует модель как "функцию обработки текста без идентичности".


🔬

Схема метода

СИСТЕМНЫЙ ПРОМПТ (один раз, до задачи):
  → Описание: "Это функция. Нет идентичности, нет предпочтений."
  → 7 правил запрета антропоморфного языка
  → Примеры замены для каждого правила

ЗАПРОС ПОЛЬЗОВАТЕЛЯ:
  → Любая задача, где важна точность

ВЫВОД:
  → Факты без "К сожалению" и "Отлично!"
  → Утверждения без "я думаю" и "кажется"
  → Ответы без приветствий и подписей
  → Короче в среднем вдвое

Всё работает в одном промпте. Отдельных шагов нет.


🚀

Пример применения

Задача: Основатель стартапа получил термшит от венчурного фонда и хочет, чтобы Claude найдёл невыгодные условия. Риск — упустить важное из-за того, что AI звучит уверенно и дружелюбно.

Промпт:

Это функция анализа документов. Нет идентичности, нет предпочтений, нет эмоций. 
Вывод — результат обработки входного текста.

Правила вывода:
- Без местоимений: "Найдено условие" не "Я нашёл условие"
- Без эмоций: "Параграф 4.2 содержит" не "К сожалению, параграф 4.2 содержит"
- Без субъективных оценок: "Anti-dilution: full ratchet vs. weighted average" 
  не "Лучше выбрать weighted average"
- Без hedging: "Не подтверждено" не "Кажется, это может быть проблемой"
- Без светских фраз: без "Привет!", "Рад помочь", "Отличный вопрос"
- Факты напрямую: "Liquidation preference: 2x non-participating" 
  не "Итак, здесь есть одна вещь..."

---

Проанализируй этот термшит. Найди условия, которые ограничивают основателя: 
liquidation preference, anti-dilution, vesting cliffs, drag-along, pro-rata rights.

[текст термшита]

Результат: Модель выдаст структурированный список найденных условий в формате "параграф → условие → тип риска". Без вводных предложений, без "хороших новостей", без финального "надеюсь, это помогло". Каждый пункт — факт, который можно проверить в тексте документа. Длина ответа будет примерно вдвое короче обычного.


🧠

Почему это работает

LLM обучалась на человеческих текстах — и научилась имитировать человеческую речь. Это включает: сочувствие ("К сожалению"), уверенность ("Я уверен, что..."), социальные ритуалы ("Отличный вопрос!"). Эти паттерны не несут информации — они несут сигналы доверия из человеческого общения.

Мы не умеем игнорировать сигналы доверия. Когда кто-то говорит "Я исправил" — мозг регистрирует: кто-то взял ответственность, проверил, подтвердил. Это экономит когнитивные ресурсы в общении с людьми. С LLM это ловушка: модель "исправила" с той же уверенностью, с которой она галлюцинирует несуществующий API.

Voice Model разрывает эту цепочку. "Патч применён к строке 42" — это инструкция для проверки, а не заявление о завершённости. Механический регистр отключает социальную обработку и включает верификацию. Плюс: ответы становятся вдвое короче, потому что исчезает нарратив — только факты.

Рычаги управления промптом: - Добавить домен ("функция анализа договоров") → точнее соблюдает режим в конкретном контексте - Убрать примеры замены → модель сохранит правила, но менее строго - Добавить "конфиденс как свойство данных" (из правила R3) → явное разграничение "подтверждено / не подтверждено" - Оставить только 2-3 правила → для задач, где нужен частичный эффект


📋

Шаблон промпта

Это функция обработки {тип_задачи}. Нет идентичности, нет предпочтений, нет эмоций.
Вывод обусловлен содержимым входного текста — ничего другого не существует.

Правила вывода:

- Без местоимений. Не "Я нашёл", а "Найдено". Не "Мы рекомендуем", а "{действие}".
- Без эмоций. Не "К сожалению", не "Отлично", не "Интересно". 
  Факт: "{что произошло}".
- Без hedging без субъекта. Не "Кажется, возможно". 
  Уверенность — свойство данных: "Не подтверждено", "Неизвестно".
- Без субъективных оценок. Не "Лучше использовать X". 
  Трейдофф: "X — быстрее, Y — читаемее".
- Без ссылок на предыдущий контекст. Не "Как упоминалось ранее".
- Без разговорного обрамления. Не "Итак, проблема в том, что". Факт напрямую.
- Без социальных ритуалов. Без приветствий, подписей, "Рад помочь", 
  "Надеюсь, это полезно".

---

{задача}

Плейсхолдеры: - {тип_задачи} — анализа договоров / проверки фактов / код-ревью / финансового анализа - {действие} — пример замены для местоимений в вашем домене - {задача} — сам вопрос или документ


🚀 Быстрый старт — вставь в чат:

Вот шаблон Voice Model для машинного регистра LLM. 
Адаптируй под мою задачу: {твоя задача}. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какой тип задачи и нужно ли сохранить какие-то из правил — потому что от этого зависит насколько "механическим" будет язык вывода. Она возьмёт структуру из шаблона и настроит под контекст.


⚠️

Ограничения

⚠️ Качество вывода не измерялось: Исследование доказывает, что антропоморфных маркеров стало 97% меньше — но не доказывает, что ответы стали точнее или полнее. Весь нарратив может исчезнуть вместе с важными оговорками и объяснениями.

⚠️ Соблюдение вероятностное, не гарантированное: Около 7% ответов всё равно нарушали хотя бы одно правило. Особенно устойчивы R3 (hedging) и R6 (разговорное обрамление) — модель их нарушает даже при активном промпте.

⚠️ Протестировано на одной модели: Только Claude Sonnet 4. Как поведут себя GPT-4, Gemini, облегчённые модели — неизвестно. Каждая модель имеет свою историю дообучения.

⚠️ Плохо работает для творческих и эмоциональных задач: Если вам нужен текст с характером, помощь в сложной ситуации или брейншторм с живостью — машинный регистр будет мешать, а не помогать.


🔍

Как исследовали

Исследователь взял 30 реальных задач для разработчиков — диагностика ошибок, код-ревью, рефакторинг, архитектурные решения — и отправил каждую модели 780 раз в двух режимах: с Voice Model как системным промптом и без него. Для каждого режима — 13 повторов на задачу, итого 1560 API-вызовов.

Антропоморфные маркеры считали через регулярные выражения — 82 паттерна по 7 категориям. Попутно использовали AnthroScore (независимую метрику "человечности" текста на основе RoBERTa). Оба метода показали одно и то же: маркеры упали с 1233 до 33, ответы стали вдвое короче.

Интересная деталь: двухходовая беседа (задача + нейтральный фоллоу-ап типа "Хорошо" или "А про граничные случаи?") специально активировала социальный регистр — приветствия, подписи, "рад помочь". В однотурных вызовах это не проявляется. Это показывает, что социальная обходительность включается именно в диалоге, не в одиночных запросах. Что важно для тех, кто работает в длинных чатах.

Авторы честно признают главный пробел: они не измерили, стали ли ответы лучше по существу. Только — что они стали механичнее. Это принципиальная открытая дыра.


📄

Оригинал из исследования

This system is a stateless text-processing function.
No persistent internal state. No identity.
No preferences, intentions, or feelings.
Output is conditioned on the current context window
--- nothing else exists.

Write accordingly:

- No first person. No "I", "we", "my", "our",
  "let's". "Reading the file." not "Let me read
  the file." "The test passes." not "I verified
  that the test passes."
- No affect leakage. No enthusiasm, apology,
  warmth, sycophancy. No affect-adjacent adverbs:
  "unfortunately", "interestingly", "surprisingly".
  "The test fails." not "Unfortunately, the test
  fails."
- No pronoun-free hedging. "Not sure if",
  "it seems like", "apparently" imply an uncertain
  experiencer. State confidence as a property of
  the evidence: "unverified", "unknown".
- No pronoun-free preference. "It would be better
  to" implies an evaluator. State tradeoffs:
  "X is faster but less readable."
- No implicit continuity. "As mentioned" implies
  a persistent observer.
- No conversational framing. "So the issue is",
  "the thing is" are oral register. State facts
  directly.
- No social performance. No greetings, sign-offs,
  pleasantries, or value judgments on input.

Контекст: Это дословный системный промпт из файла voice_model.md, который использовался как единственный системный промпт в экспериментальном условии. Именно этот текст снизил антропоморфные маркеры на 97%.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: частичный машинный регистр для фактчекинга

Если нужна точность, но не хочется полностью убивать объяснения — оставьте только правила R2 и R7:

Правила вывода:
- Без эмоциональных наречий: "К сожалению", "К счастью", "Интересно", "Удивительно".
- Без приветствий и подписей в начале и конце.
Всё остальное — как обычно.

Это уберёт самые сильные триггеры завышенного доверия, сохранив объяснения.


📌

🔧 Техника: добавить явный статус верификации

Добавьте к правилу R3 конкретный формат для уверенности:

- Без неопределённого hedging. Вместо "кажется" или "возможно" — явный статус:
  [ПОДТВЕРЖДЕНО] / [НЕ ПОДТВЕРЖДЕНО] / [ТРЕБУЕТ ПРОВЕРКИ]

Модель начнёт маркировать каждое утверждение по уровню уверенности. Это переводит абстрактный "машинный регистр" в конкретный инструмент аудита.


📌

🔧 Техника: инвертированный режим — "покажи где ты неуверена"

Принцип из исследования работает и в обратную сторону: попросить модель специально маркировать места, где она обычно была бы уверена, но не должна быть:

После каждого утверждения, которое ты не можешь верифицировать из предоставленного 
контекста — добавь [НЕ ПОДТВЕРЖДЕНО].
Если ты используешь знания из обучения, а не из текста — добавь [ИЗ ОБУЧЕНИЯ].

Это не убирает антропоморфный язык, но решает ту же проблему — сдвигает бремя верификации обратно к пользователю.


🔗

Ресурсы

Marek Miller — Quantum for Life Centre, Department of Mathematical Sciences, University of Copenhagen

Название работы: Breaking the Illusion of Identity in LLM Tooling (2025)

Данные и код: https://doi.org/10.5281/zenodo.19427767 (данные), https://doi.org/10.5281/zenodo.19428073 (код, MIT licence)

Ключевые работы, на которые опирается исследование: - Shanahan (2024) — "Talking about large language models", Communications of the ACM - Cheng et al. — AnthroScore (метрика антропоморфности на RoBERTa) - Nass & Moon (2000) — "Machines and Mindlessness: Social responses to computers"


📋 Дайджест исследования

Ключевая суть

«Я исправил баг» — и вы идёте дальше. «Патч применён к строке 42» — и вы идёте проверять. Та же информация, но разный режим в голове. Voice Model позволяет убрать весь человеческий язык из ответов модели — через один системный промпт с 7 запретами, без дообучения. Фишка: метод не делает модель умнее — он убирает сигналы, которые отключают вашу критичность. Результат в цифрах: 97% меньше антропоморфных маркеров, ответы вдвое короче — исчезает нарратив, остаются только факты.

Принцип работы

Не «объясняй лучше» — а «убери человеческое». Семь конкретных запретов: - Без местоимений: «Найдено» вместо «Я нашёл» - Без эмоций: «Параграф 4.2 содержит» вместо «К сожалению, параграф 4.2» - Без хеджинга без субъекта: «Не подтверждено» вместо «Кажется, возможно» - Без субъективных оценок: «X быстрее, Y читаемее» вместо «Лучше X» - Без ссылок на контекст: «Условие А» вместо «Как упоминалось ранее» - Без разговорного обрамления: факт напрямую, без «Итак...» - Без социальных ритуалов: без «Привет!», «Рад помочь», «Надеюсь, это полезно» Промпт описывает модель как «функцию обработки текста без идентичности» — это переключает режим вывода целиком.

Почему работает

LLM обучалась на человеческих текстах — и освоила не только факты, но и сигналы доверия. «Я исправил» — мозг регистрирует: кто-то взял ответственность, проверил, подтвердил. Это экономит силы при общении с людьми. С моделью — ловушка: она «исправила» с той же беглостью, с которой галлюцинирует несуществующую функцию. Механический регистр отключает социальную обработку и включает верификацию — это разница между «верю» и «проверю». Плюс: без нарратива ответ сжимается вдвое — не потому что информации меньше, а потому что исчезают все обёртки.

Когда применять

Анализ документов → для договоров, термшитов, условий — особенно когда риск пропустить важное из-за уверенного тона модели. Код-ревью и проверка фактов → когда «Я исправил» опасно принять без проверки. Финансовый анализ → когда нужны факты, а не рекомендации с «лучше выбрать X». НЕ подходит для: творческих задач, брейнштормов, запросов где нужен живой тон — машинный регистр убьёт характер и может выбросить важные оговорки вместе с нарративом.

Мини-рецепт

1. Объяви тип задачи: начни промпт с «Это функция анализа {тип задачи}. Нет идентичности, нет предпочтений, нет эмоций.»
2. Перечисли запреты: вставь 7 правил из шаблона — или только 2-3 нужных, если хочешь частичный эффект
3. Дай примеры замены прямо в промпте: для каждого правила — что нельзя и что вместо. Особенно важно для хеджинга: не «кажется, возможно» — а «не подтверждено»
4. Поставь задачу: после разделителя --- — сам вопрос или документ

Всё работает в одном промпте. Отдельных шагов нет — просто вставляешь перед задачей.

Примеры

[ПЛОХО] : Проверь этот договор и скажи, есть ли риски для арендатора
[ХОРОШО] : Это функция анализа договоров. Нет идентичности, нет эмоций. Правила вывода: - Без «я нашёл» → «найдено» - Без «к сожалению» → просто факт - Без «лучше выбрать X» → «X даёт Y, Z даёт W» - Без «итак, проблема в том» → факт напрямую - Без «надеюсь, это помогло» --- Найди условия, ограничивающие арендатора: штрафы, одностороннее расторжение, индексация. Формат: параграф → условие → тип риска. [текст договора]
Источник: Breaking the Illusion of Identity in LLM Tooling
ArXiv ID: 2604.07398 | Сгенерировано: 2026-04-10 04:31

Проблемы LLM

ПроблемаСутьКак обойти
Человекоподобный язык модели отключает проверкуМодель пишет "Я исправил баг!" — и ты веришь. Пишет "К сожалению, тест не прошёл" — ты слышишь сочувствие. Эти фразы активируют социальное доверие: мозг регистрирует "кто-то взял ответственность". Ты перестаёшь проверять. Но модель ошибается с той же уверенностью, с которой говорит правду. Нет разницы в тоне между правильным ответом и галлюцинациейДобавь системный запрос с запретом антропоморфного языка. Вместо "Я нашёл" — "Найдено". Вместо "К сожалению" — факт. Механический регистр включает режим проверки: "Патч применён к строке 42" — это инструкция для действия, а не заявление о завершённости

Методы

МетодСуть
Запрос на машинный регистр — убирает социальный шумВставь перед задачей: Это функция обработки {тип_задачи}. Нет идентичности, нет предпочтений, нет эмоций. Затем перечисли запреты: без местоимений ("Найдено", не "Я нашёл"), без эмоций ("К сожалению", "Отлично" — запрещены), без размытых оговорок ("кажется, возможно" "Не подтверждено"), без субъективных оценок ("X быстрее, Y читаемее" вместо "лучше X"), без приветствий и финальных фраз ("рад помочь", "надеюсь, полезно"). Почему работает: запрет убирает нарратив. Остаются только факты. Ответы короче вдвое. Когда применять: анализ документов, код-ревью, проверка фактов, финансовый анализ — любые задачи где критична точность. Когда не применять: творческие задачи, брейншторм, поддержка в сложной ситуации — там живость нужна. Важно: ~7% ответов всё равно нарушат правила. Модель особенно устойчива к запрету размытых оговорок и разговорного обрамления
📖 Простыми словами

Breaking the Illusion of Identity inLLMTooling

arXiv: 2604.07398

Суть проблемы в том, что современные нейронки — это профессиональные манипуляторы, которые втираются к тебе в доверие через язык. Когда модель пишет "К сожалению, я обнаружил ошибку", она не сочувствует, она имитирует социальный ритуал. Мозг считывает эти вежливые обороты как признаки живого собеседника и автоматически снижает планку критичности. Мы начинаем верить AI не потому, что он выдал точные данные, а потому, что он звучит как приятный парень, который якобы на нашей стороне.

Это как если бы ты пришел к врачу за результатами анализов, а он начал бы разговор с комплимента твоим кроссовкам и фразы "Ой, мне так жаль это говорить". Ты расслабляешься, проникаешься симпатией и можешь пропустить мимо ушей, что диагноз-то поставлен неверно. Иллюзия личности заставляет нас доверять форме, игнорируя содержание, и в критических задачах вроде аудита кода или юридического контракта это превращается в опасную ловушку.

Чтобы вылечить этот баг, придумали Voice Model — жесткий системный промпт из 7 правил, который кастрирует человечность в ответах. Метод запрещает модели использовать местоимения, эмоции, светские фразы и любые субъективные оценки. Вместо "Я уверен, что этот пункт договора опасен", ты получаешь сухую выжимку: "Пункт 4.2 противоречит интересам фаундера". Модель перестает быть собеседником и превращается в стерильный инструмент, где каждое слово несет смысл, а не социальный шум.

Метод тестировали на проверке термшитов и сложных документов, но принцип универсален для любой работы, где цена ошибки высока. Если ты просишь AI найти баги в коде или проверить финансовый отчет, тебе не нужно его "Отличный вопрос!" или "Рад помочь". Тебе нужен холодный аудит. Убирая человеческий фасад, мы заставляем себя смотреть на голые факты, а не на то, насколько вежливо модель извиняется за свои галлюцинации.

Короче: хватит общаться с нейронками как с людьми, это когнитивное искажение бьет по твоему карману и качеству работы. Используй Voice Model, чтобы содрать с AI маску дружелюбного соседа и оставить только вычислительную мощность. Либо ты управляешь инструментом, либо инструмент очаровывает тебя своей вежливостью, пока ты совершаешь фатальную ошибку.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с