3,583 papers
arXiv:2511.20284 74 25 нояб. 2025 г. FREE

Privacy Statements: персонализация LLM через краткое описание своих предпочтений

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM по умолчанию даёт советы для «среднего пользователя», а не для тебя лично. Без явных указаний модель ориентируется на мейнстрим из обучающих данных. Если твоя позиция отличается (очень осторожен с данными или максимально открыт) — согласие падает с 70% до 27%. Метод позволяет получать решения под твои конкретные приоритеты: добавь 2-4 абзаца о своих предпочтениях, и модель будет учитывать их во всех решениях. Фишка: краткое заявление работает как персональный фильтр — модель перестаёт угадывать «что бы сделал средний человек» и решает «что сделал бы человек с ЭТИМИ приоритетами». Согласие вырастает до 100% для пользователей с чёткой позицией.
Адаптировать под запрос

TL;DR

Исследование показывает, что краткое описание ваших предпочтений в начале разговора существенно улучшает способность LLM принимать решения, соответствующие вашим ценностям. Учёные тестировали это на задаче контроля доступа (разрешать ли приложению доступ к камере, геолокации и т.д.), но принцип работает шире: модель использует ваш "профиль предпочтений" как якорь для всех последующих решений.

Главная находка: без персонализации LLM соглашается с большинством пользователей в ~70% случаев, но с конкретным пользователем — может упасть до 27%. Причина: модель по умолчанию ориентируется на "среднего человека". Если ваши взгляды отличаются от мейнстрима (вы очень осторожны с данными или, наоборот, максимально открыты), стандартная модель будет систематически ошибаться в ваших интересах.

Решение: пользователь пишет privacy statement — 2-4 абзаца о своих предпочтениях. После этого согласие с индивидуальными решениями вырастает до 100% для пользователей с чёткой позицией. Бонус: когда персонализированная LLM не соглашается с первоначальным решением пользователя, в 48% случаев пользователь после прочтения объяснений модели меняет своё мнение — особенно когда LLM предлагает более осторожный вариант (59%).


🔬

Схема метода

ШАГ 1: Сформулировать "заявление о предпочтениях" → 2-4 абзаца текста
       ↳ общая позиция + конкретные правила + исключения

ШАГ 2: Дать LLM контекст задачи + своё заявление → решение + объяснение
       ↳ модель учитывает и ваши предпочтения, и контекст ситуации

Всё выполняется в одном промпте. Заявление можно использовать повторно для похожих задач.


🚀

Пример применения

Задача: Вы запускаете небольшой бизнес и вам нужно решить, какие данные о клиентах собирать. Маркетолог предлагает собирать всё подряд "на будущее", юрист предупреждает о рисках. Вы хотите, чтобы Claude помог принять решение, учитывая вашу позицию.

Промпт:

Вот моя позиция по работе с данными клиентов:

Я предпочитаю собирать минимум данных — только то, что реально нужно для работы сервиса. Не люблю накапливать данные "про запас". Готов пожертвовать точностью персонализации ради меньших рисков. Исключение: финансовые данные для бухгалтерии — тут храню всё по закону. С третьими сервисами делюсь данными только если клиент явно согласился.

Ситуация: Мы запускаем доставку еды в Казани. Маркетолог предлагает собирать: ФИО, телефон, адрес, историю заказов, дату рождения, предпочтения в еде, геолокацию в реальном времени, данные о частоте использования приложения.

Какие данные стоит собирать, а какие — избыточны для моего подхода?

Результат: Модель пройдёт по каждому типу данных, сопоставит с вашей заявленной позицией, и разделит на: необходимые для работы (адрес, телефон), полезные но опциональные (история заказов), и избыточные для вашего подхода (геолокация в реальном времени, детальная аналитика поведения). Объяснение будет привязано к конкретным фразам из вашего заявления.


🧠

Почему это работает

Слабость LLM: без явных указаний модель ориентируется на "среднестатистического пользователя" из обучающих данных. Это работает для большинства, но люди с выраженной позицией (очень осторожные или очень открытые) получают нерелевантные рекомендации. Модель не знает, что вы — не "средний".

Сильная сторона LLM: модели отлично умеют следовать явным инструкциям и взвешивать несколько факторов одновременно. Если вы описали свои приоритеты, модель будет последовательно их учитывать.

Как метод использует это: заявление о предпочтениях создаёт персональный контекст, который модель использует как фильтр. Вместо "что бы сделал средний человек" модель решает "что бы сделал человек с ЭТИМИ приоритетами в ЭТОЙ ситуации".

Рычаги управления:

  • Длина заявления: коррелирует с качеством (r=0.18), но экстремальные позиции можно выразить кратко. "Всегда разрешаю всё" — уже достаточно
  • Конкретность правил: "только коллеги из моей команды видят полный календарь, остальные — только занятость" работает лучше, чем "я осторожен с календарём"
  • Явные исключения: помогают модели не применять общие правила там, где вы хотите иначе

📋

Шаблон промпта

Вот моя позиция по {область_решений}:

{общий_подход} — 1-2 предложения о базовой позиции

{конкретные_правила} — что именно важно, с кем/чем готовы делиться/сотрудничать

{исключения} — где ваш подход отличается от общего правила

{приоритеты_при_конфликте} — что важнее: удобство, безопасность, скорость, экономия?

---

Ситуация: {описание_конкретного_решения}

Как бы ты решил это с учётом моей позиции?

Что подставлять:

  • {область_решений} — тема, по которой вы формулируете позицию (данные клиентов, найм, инвестиции, публичные высказывания)
  • {общий_подход} — ваша базовая установка одним-двумя предложениями
  • {конкретные_правила} — детализация для важных подкатегорий
  • {исключения} — случаи, где вы действуете иначе, чем "обычно"
  • {приоритеты_при_конфликте} — что перевешивает, когда нужно выбирать

⚠️

Ограничения

⚠️ Непоследовательность между заявлением и действиями: если ваши реальные решения противоречат написанному заявлению — персонализация работает хуже или даже вредит. Исследование показало: у некоторых пользователей согласие упало на 33% из-за этого.

⚠️ Не для всех пользователей: наибольший эффект — для людей с чёткой и выраженной позицией. Если вы "зависит от ситуации" по большинству вопросов — персонализация даёт минимальный прирост.

⚠️ Может ослабить "защитные" рекомендации: если в заявлении вы написали "всегда разрешаю всё" — модель может согласиться с рискованными решениями, где без персонализации она бы предупредила.


🔍

Как исследовали

Исследователи из ETH Zurich и Huawei провели масштабный пользовательский эксперимент с 307 участниками, которые создали свои privacy statements и приняли в сумме 14,682 решения о разрешениях для приложений (камера, геолокация, контакты и т.д.).

Интересный дизайн: половина сценариев была "очевидной" (приложение звонков просит доступ к микрофону — понятно зачем), половина — спорной (приложение ресторанов просит геолокацию — можно и вручную ввести адрес). Это позволило отделить "здравый смысл" модели от способности учитывать личные предпочтения.

Неожиданная находка: пользователи в 55% случаев разрешали даже подозрительные запросы от известных приложений. Когда LLM отказывала в таких случаях и объясняла почему, 59% пользователей соглашались с более осторожным решением модели. Получается, LLM может работать как "второе мнение", которое защищает от импульсивных решений.

Четыре группы участников получили разные форматы вопросов (общие vs. конкретные про телефон, форма vs. чатбот) — статистически значимой разницы не нашли. Это хорошая новость: формат заявления не критичен, важнее содержание.


💡

Адаптации и экстраполяции

💡 Адаптация для рабочих решений:

Принцип privacy statement применим к любой области, где вы хотите, чтобы LLM учитывала вашу позицию:

Для найма:

Моя позиция по найму: ценю потенциал выше опыта, готов обучать. 
Важнее культурный fit, чем конкретные навыки. 
Исключение: для senior-ролей нужен подтверждённый опыт.
Red flags: частая смена работ (<1 года) без объяснения.

Вот резюме кандидата: [текст]. Стоит ли приглашать на интервью?

Для инвестиций:

Моя позиция: консервативный подход, 70% в индексах, 30% в отдельных акциях. 
Не инвестирую в то, что не понимаю. 
Горизонт: 10+ лет, волатильность не пугает. 
Исключение: готов рискнуть 5% портфеля на спекулятивные идеи.

Стоит ли мне рассмотреть [инструмент]?

🔧 Техника: добавить запрос на обоснование → прозрачность решения

Исследование показало, что объяснения LLM меняли мнение пользователей в 48% случаев несогласия. Добавляйте в конец: "Объясни, какие части моего заявления ты учёл в этом решении" — это помогает проверить, что модель действительно использует ваш контекст, а не выдаёт generic-ответ.

🔧 Техника: явно указать приоритет при конфликте → меньше "сбалансированных" ответов

Если модель пытается угодить всем факторам сразу, добавьте: "При конфликте между удобством и безопасностью — выбирай безопасность" (или наоборот). Это снижает "сидение на двух стульях" в рекомендациях.


🔗

Ресурсы

Работа: "Can LLMs Make (Personalized) Access Control Decisions?" (2025)

Авторы: Friederike Groschupp, Daniele Lain, Aritra Dhar, Lara Magdalena Lazier, Srdjan Čapkun — ETH Zurich, Huawei Technologies Switzerland

Модели в исследовании: GPT-4o, GPT-4.1, GPT-5, Mistral Medium 3, Grok 3, DeepSeek-V3


📋 Дайджест исследования

Ключевая суть

Обнаружено: LLM по умолчанию даёт советы для «среднего пользователя», а не для тебя лично. Без явных указаний модель ориентируется на мейнстрим из обучающих данных. Если твоя позиция отличается (очень осторожен с данными или максимально открыт) — согласие падает с 70% до 27%. Метод позволяет получать решения под твои конкретные приоритеты: добавь 2-4 абзаца о своих предпочтениях, и модель будет учитывать их во всех решениях. Фишка: краткое заявление работает как персональный фильтр — модель перестаёт угадывать «что бы сделал средний человек» и решает «что сделал бы человек с ЭТИМИ приоритетами». Согласие вырастает до 100% для пользователей с чёткой позицией.

Принцип работы

Не заставляй модель угадывать твои предпочтения — опиши их явно. Формат простой: базовая позиция (1-2 предложения) → конкретные правила → исключения → приоритеты при конфликте. Заявление создаёт персональный контекст, который модель применяет ко всем последующим решениям. Это как дать консультанту бриф о твоих ценностях перед началом работы — он не будет предлагать то, что тебе не подходит. Заявление переиспользуется: написал раз — применяешь для всех похожих задач.

Почему работает

LLM отлично следуют явным инструкциям и умеют взвешивать несколько факторов одновременно. Проблема: без твоих указаний модель берёт «среднестатистические» приоритеты из обучающих данных. Заявление о предпочтениях превращает общую рекомендацию в персональную через явный контекст. Модель видит не просто задачу, а задачу + твои правила + твои исключения. Бонус: когда персонализированная LLM не согласна с твоим первоначальным решением, в 48% случаев пользователь меняет мнение после её объяснений — особенно когда модель предлагает более осторожный вариант (59%). Это работает потому что модель обосновывает через твои же заявленные приоритеты.

Когда применять

Для решений где важны личные приоритеты — контроль доступа к данным, найм, инвестиции, публичные высказывания. Особенно эффективно когда твоя позиция отличается от мейнстрима: ты намного осторожнее или намного открытее «среднего». Метод даёт наибольший прирост для людей с чёткой выраженной позицией. НЕ подходит если ты «зависит от ситуации» по большинству вопросов — персонализация даст минимальный эффект. Внимание: если заявление противоречит твоим реальным решениям — согласие может упасть на 33% вместо роста.

Мини-рецепт

1. Базовая позиция: Опиши общий подход одним-двумя предложениями (например: минимум данных, только для работы сервиса)
2. Конкретные правила: Детализируй для важных подкатегорий (с коллегами из команды делюсь полным календарём, остальные видят только занятость)
3. Исключения: Укажи где действуешь иначе (финансовые данные храню по закону, тут не минимизирую)
4. Приоритеты при конфликте: Что важнее когда нужно выбирать — удобство, безопасность, скорость, экономия?
5. Применяй к задаче: Дай модели ситуацию + своё заявление → получишь решение привязанное к твоим правилам

Примеры

[ПЛОХО] : Стоит ли давать этому приложению доступ к геолокации? (Модель ответит для «среднего» пользователя, не зная твоих приоритетов)
[ХОРОШО] : Вот моя позиция: собираю минимум данных, только для работы сервиса. Не храню данные «про запас». Исключение — финансовые данные для бухгалтерии, тут всё по закону. Ситуация: запускаю доставку еды, маркетолог просит собирать ФИО, телефон, адрес, историю заказов, дату рождения, предпочтения в еде, геолокацию в реальном времени. Какие данные стоит собирать с учётом моего подхода? (Модель пройдёт по каждому типу данных, сопоставит с твоими правилами, разделит на необходимые/полезные/избыточные для твоей позиции)
Источник: Can LLMs Make (Personalized) Access Control Decisions?
ArXiv ID: 2511.20284 | Сгенерировано: 2026-01-11 20:19

Концепты не выделены.

📖 Простыми словами

Privacy Statements: персонализация LLM через краткое описание своих предпочтений

arXiv: 2511.20284

Суть в том, что современные нейронки по умолчанию — это такие усредненные конформисты. Когда ты просишь AI принять решение, он не думает о твоих интересах, он выдает «среднюю температуру по больнице» на основе того, что прочитал в интернете. В итоге на любой сложный вопрос ты получаешь ванильный совет, который подходит всем и никому одновременно. Исследование доказывает: чтобы выбить модель из этого состояния, ей нужен жесткий якорь в виде твоего личного профиля предпочтений прямо на старте.

Это как нанять личного ассистента и в первый же день выдать ему список твоих триггеров и закидонов. Без этого он будет заказывать тебе на обед салат, потому что «все едят салат», хотя у тебя аллергия на помидоры. Но стоит внятно прописать свои правила и исключения, как модель перестает гадать и начинает работать как твой цифровой двойник. Она берет твой текст, превращает его в фильтр и прогоняет через него каждое решение, будь то доступ приложения к камере или стратегия сбора данных о клиентах.

Ученые проверили это на контроле доступа и выяснили, что метод заявления о предпочтениях — это база. Тебе нужно выкатить 2–4 абзаца текста, где прописана общая позиция, конкретные правила и, что самое важное, исключения. Если ты просто скажешь «я за приватность», модель будет тупить. Если скажешь «я не даю доступ к геолокации никому, кроме навигаторов и курьеров», она начнет отсекать лишнее с хирургической точностью. Конкретика бьет абстракцию в 10 из 10 случаев.

Принцип универсален: тестировали на безопасности данных, но это работает везде, где нужно персонализированное решение. Хочешь, чтобы AI помогал в бизнесе, юридических вопросах или даже в выборе диеты — сначала скорми ему свой манифест. Без этого ты просто общаешься с Википедией, которая пытается казаться умной. SEO для мозгов уходит в прошлое, наступает эра настройки контекста под себя, чтобы выжать из модели максимум пользы.

Короче, хватит ждать от нейронки телепатии — она не знает, что ты не «средний юзер». Либо ты тратишь пять минут на написание своего профиля предпочтений, либо продолжаешь получать бесполезные советы. Явные инструкции превращают модель из случайного советчика в инструмент, который реально защищает твои интересы. Кто не научится задавать рамки, тот так и будет тонуть в белом шуме стандартных ответов.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с