TL;DR
Исследование показывает, что краткое описание ваших предпочтений в начале разговора существенно улучшает способность LLM принимать решения, соответствующие вашим ценностям. Учёные тестировали это на задаче контроля доступа (разрешать ли приложению доступ к камере, геолокации и т.д.), но принцип работает шире: модель использует ваш "профиль предпочтений" как якорь для всех последующих решений.
Главная находка: без персонализации LLM соглашается с большинством пользователей в ~70% случаев, но с конкретным пользователем — может упасть до 27%. Причина: модель по умолчанию ориентируется на "среднего человека". Если ваши взгляды отличаются от мейнстрима (вы очень осторожны с данными или, наоборот, максимально открыты), стандартная модель будет систематически ошибаться в ваших интересах.
Решение: пользователь пишет privacy statement — 2-4 абзаца о своих предпочтениях. После этого согласие с индивидуальными решениями вырастает до 100% для пользователей с чёткой позицией. Бонус: когда персонализированная LLM не соглашается с первоначальным решением пользователя, в 48% случаев пользователь после прочтения объяснений модели меняет своё мнение — особенно когда LLM предлагает более осторожный вариант (59%).
Схема метода
ШАГ 1: Сформулировать "заявление о предпочтениях" → 2-4 абзаца текста
↳ общая позиция + конкретные правила + исключения
ШАГ 2: Дать LLM контекст задачи + своё заявление → решение + объяснение
↳ модель учитывает и ваши предпочтения, и контекст ситуации
Всё выполняется в одном промпте. Заявление можно использовать повторно для похожих задач.
Пример применения
Задача: Вы запускаете небольшой бизнес и вам нужно решить, какие данные о клиентах собирать. Маркетолог предлагает собирать всё подряд "на будущее", юрист предупреждает о рисках. Вы хотите, чтобы Claude помог принять решение, учитывая вашу позицию.
Промпт:
Вот моя позиция по работе с данными клиентов:
Я предпочитаю собирать минимум данных — только то, что реально нужно для работы сервиса. Не люблю накапливать данные "про запас". Готов пожертвовать точностью персонализации ради меньших рисков. Исключение: финансовые данные для бухгалтерии — тут храню всё по закону. С третьими сервисами делюсь данными только если клиент явно согласился.
Ситуация: Мы запускаем доставку еды в Казани. Маркетолог предлагает собирать: ФИО, телефон, адрес, историю заказов, дату рождения, предпочтения в еде, геолокацию в реальном времени, данные о частоте использования приложения.
Какие данные стоит собирать, а какие — избыточны для моего подхода?
Результат: Модель пройдёт по каждому типу данных, сопоставит с вашей заявленной позицией, и разделит на: необходимые для работы (адрес, телефон), полезные но опциональные (история заказов), и избыточные для вашего подхода (геолокация в реальном времени, детальная аналитика поведения). Объяснение будет привязано к конкретным фразам из вашего заявления.
Почему это работает
Слабость LLM: без явных указаний модель ориентируется на "среднестатистического пользователя" из обучающих данных. Это работает для большинства, но люди с выраженной позицией (очень осторожные или очень открытые) получают нерелевантные рекомендации. Модель не знает, что вы — не "средний".
Сильная сторона LLM: модели отлично умеют следовать явным инструкциям и взвешивать несколько факторов одновременно. Если вы описали свои приоритеты, модель будет последовательно их учитывать.
Как метод использует это: заявление о предпочтениях создаёт персональный контекст, который модель использует как фильтр. Вместо "что бы сделал средний человек" модель решает "что бы сделал человек с ЭТИМИ приоритетами в ЭТОЙ ситуации".
Рычаги управления:
- Длина заявления: коррелирует с качеством (r=0.18), но экстремальные позиции можно выразить кратко. "Всегда разрешаю всё" — уже достаточно
- Конкретность правил: "только коллеги из моей команды видят полный календарь, остальные — только занятость" работает лучше, чем "я осторожен с календарём"
- Явные исключения: помогают модели не применять общие правила там, где вы хотите иначе
Шаблон промпта
Вот моя позиция по {область_решений}:
{общий_подход} — 1-2 предложения о базовой позиции
{конкретные_правила} — что именно важно, с кем/чем готовы делиться/сотрудничать
{исключения} — где ваш подход отличается от общего правила
{приоритеты_при_конфликте} — что важнее: удобство, безопасность, скорость, экономия?
---
Ситуация: {описание_конкретного_решения}
Как бы ты решил это с учётом моей позиции?
Что подставлять:
{область_решений}— тема, по которой вы формулируете позицию (данные клиентов, найм, инвестиции, публичные высказывания){общий_подход}— ваша базовая установка одним-двумя предложениями{конкретные_правила}— детализация для важных подкатегорий{исключения}— случаи, где вы действуете иначе, чем "обычно"{приоритеты_при_конфликте}— что перевешивает, когда нужно выбирать
Ограничения
⚠️ Непоследовательность между заявлением и действиями: если ваши реальные решения противоречат написанному заявлению — персонализация работает хуже или даже вредит. Исследование показало: у некоторых пользователей согласие упало на 33% из-за этого.
⚠️ Не для всех пользователей: наибольший эффект — для людей с чёткой и выраженной позицией. Если вы "зависит от ситуации" по большинству вопросов — персонализация даёт минимальный прирост.
⚠️ Может ослабить "защитные" рекомендации: если в заявлении вы написали "всегда разрешаю всё" — модель может согласиться с рискованными решениями, где без персонализации она бы предупредила.
Как исследовали
Исследователи из ETH Zurich и Huawei провели масштабный пользовательский эксперимент с 307 участниками, которые создали свои privacy statements и приняли в сумме 14,682 решения о разрешениях для приложений (камера, геолокация, контакты и т.д.).
Интересный дизайн: половина сценариев была "очевидной" (приложение звонков просит доступ к микрофону — понятно зачем), половина — спорной (приложение ресторанов просит геолокацию — можно и вручную ввести адрес). Это позволило отделить "здравый смысл" модели от способности учитывать личные предпочтения.
Неожиданная находка: пользователи в 55% случаев разрешали даже подозрительные запросы от известных приложений. Когда LLM отказывала в таких случаях и объясняла почему, 59% пользователей соглашались с более осторожным решением модели. Получается, LLM может работать как "второе мнение", которое защищает от импульсивных решений.
Четыре группы участников получили разные форматы вопросов (общие vs. конкретные про телефон, форма vs. чатбот) — статистически значимой разницы не нашли. Это хорошая новость: формат заявления не критичен, важнее содержание.
Адаптации и экстраполяции
💡 Адаптация для рабочих решений:
Принцип privacy statement применим к любой области, где вы хотите, чтобы LLM учитывала вашу позицию:
Для найма:
Моя позиция по найму: ценю потенциал выше опыта, готов обучать.
Важнее культурный fit, чем конкретные навыки.
Исключение: для senior-ролей нужен подтверждённый опыт.
Red flags: частая смена работ (<1 года) без объяснения.
Вот резюме кандидата: [текст]. Стоит ли приглашать на интервью?
Для инвестиций:
Моя позиция: консервативный подход, 70% в индексах, 30% в отдельных акциях.
Не инвестирую в то, что не понимаю.
Горизонт: 10+ лет, волатильность не пугает.
Исключение: готов рискнуть 5% портфеля на спекулятивные идеи.
Стоит ли мне рассмотреть [инструмент]?
🔧 Техника: добавить запрос на обоснование → прозрачность решения
Исследование показало, что объяснения LLM меняли мнение пользователей в 48% случаев несогласия. Добавляйте в конец: "Объясни, какие части моего заявления ты учёл в этом решении" — это помогает проверить, что модель действительно использует ваш контекст, а не выдаёт generic-ответ.
🔧 Техника: явно указать приоритет при конфликте → меньше "сбалансированных" ответов
Если модель пытается угодить всем факторам сразу, добавьте: "При конфликте между удобством и безопасностью — выбирай безопасность" (или наоборот). Это снижает "сидение на двух стульях" в рекомендациях.
Ресурсы
Работа: "Can LLMs Make (Personalized) Access Control Decisions?" (2025)
Авторы: Friederike Groschupp, Daniele Lain, Aritra Dhar, Lara Magdalena Lazier, Srdjan Čapkun — ETH Zurich, Huawei Technologies Switzerland
Модели в исследовании: GPT-4o, GPT-4.1, GPT-5, Mistral Medium 3, Grok 3, DeepSeek-V3
