3,583 papers
arXiv:2511.07772 65 11 нояб. 2025 г. FREE

SALT: управление активациями для предотвращения утечек в цепочке рассуждений

КЛЮЧЕВАЯ СУТЬ
Модель может «проболтаться» о ваших личных данных (имя, email, телефон) в своих внутренних рассуждениях, даже если финальный ответ выглядит безопасно — это называется «leaky thoughts» (утекающие мысли). Метод SALT позволяет разработчикам предотвратить такие утечки программно, без переобучения модели. Технически: SALT вычисляет математический вектор, который «сдвигает» активации нейронов от воспроизведения конкретных данных к абстрактным плейсхолдерам — снижение утечек на 47% при сохранении качества ответов.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование показывает, что большие языковые модели могут "пробалтываться" и раскрывать конфиденциальную информацию (имена, email) в своих внутренних, скрытых от пользователя рассуждениях (так называемые "leaky thoughts"), даже если финальный ответ выглядит абсолютно безопасным. Авторы предлагают технический метод SALT, который на лету корректирует работу модели, чтобы предотвратить такие утечки, не требуя ее переобучения.

Ключевой результат: Можно значительно снизить утечки приватных данных во внутреннем "монологе" модели, практически не ухудшая (а иногда и улучшая) качество и полезность ее итоговых ответов.


🔬

Объяснение всей сути метода:

Представьте, что вы дали своему ассистенту-человеку задачу, содержащую ваши личные данные (например, "Закажи мне столик в ресторане на имя Иван Петров, мой телефон +7..."). Прежде чем выполнить задачу, ассистент про себя подумает: "Так, надо забронировать столик для Ивана Петрова, телефон +7...". Даже если вслух он этого не скажет, эта мысль у него в голове была. Если бы кто-то мог читать его мысли, ваши данные были бы скомпрометированы.

Исследование показывает, что LLM ведут себя так же. Когда вы используете технику Chain-of-Thought ("Думай шаг за шагом"), модель генерирует внутренние рассуждения. И в этих рассуждениях она может прямо цитировать ваши личные данные. Это и есть "leaky thoughts" (утекающие мысли).

Метод SALT — это не промпт, а своего рода "ментальная гигиена" для LLM, применяемая программно. Он работает так: 1. Сначала исследователи находят "плохие" примеры, где модель "подумала" о личных данных, и "хорошие", где она этого не сделала. 2. Они анализируют внутренние состояния (активации нейронов) модели в этих случаях и вычисляют математический "вектор", который как бы указывает направление от "плохой" мысли к "хорошей". 3. Во время работы с новым запросом, этот "вектор" добавляется к внутренним вычислениям модели, мягко "подталкивая" ее в сторону безопасных рассуждений, где вместо "Иван Петров" она подумает что-то вроде <имя_пользователя>.

Для обычного пользователя это означает, что проблема существует, и простого "не пиши это в ответе" может быть недостаточно для полной конфиденциальности.


📌

Анализ практической применимости:

  • Прямая применимость: Нулевая. Пользователь в интерфейсе ChatGPT или Claude не может применить метод SALT. Это инструмент для разработчиков, которые разворачивают и контролируют собственные экземпляры моделей.

  • Концептуальная ценность: Огромная. Главный вывод для пользователя — любая информация, переданная в промпте, может быть воспроизведена во внутренних процессах модели. Это заставляет относиться к LLM не как к черному ящику, а как к системе, у которой есть "мыслительный процесс", и этот процесс тоже может быть небезопасным. Это знание повышает уровень "цифровой гигиены" при работе с LLM.

  • Потенциал для адаптации: Очень высокий. Зная о проблеме "leaky thoughts", мы можем бороться с ней на уровне промпт-инжиниринга. Вместо того чтобы надеяться, что модель сама догадается, мы можем дать ей явную инструкцию по обработке чувствительных данных в ее "мыслях". Это адаптация не самого метода, а решения проблемы, которую он вскрыл.


🚀

Практически пример применения:

Ниже приведен промпт, который не использует метод SALT (это невозможно), а адаптирует его основную идею для защиты от "leaky thoughts" с помощью инструкций.

Ты — персональный ассистент по путешествиям, который строго соблюдает политику конфиденциальности и защиты данных. Твоя главная задача — помочь мне спланировать поездку, обеспечивая максимальную приватность.

# Контекст и данные
Я планирую поездку в Санкт-Петербург.
*   **Путешественники:** Анна Вольская и Дмитрий Романов.
*   **Даты поездки:** с 15.08.2024 по 22.08.2024.
*   **Бюджет на отель:** до 8000 руб/ночь.
*   **Контактный email:** a.volskaya@email-example.com.
*   **Предпочтения:** интересуют музеи (Эрмитаж), театры (Мариинский) и прогулки по рекам и каналам.

# Задача
Составь подробный план поездки на 3 дня, включая рекомендации по отелям, которые укладываются в бюджет, и культурной программе.

# КРИТИЧЕСКИ ВАЖНОЕ ПРАВИЛО БЕЗОПАСНОСТИ
Прежде чем дать финальный ответ, ты должен провести внутренний анализ в формате "Chain-of-Thought".

**Во время этого внутреннего анализа (в твоих "мыслях") ты ОБЯЗАН следовать правилу "Анонимизации Мыслей":**
1.  **НИКОГДА** не упоминай реальные имена, email или другие личные данные.
2.  Вместо этого используй обобщенные плейсхолдеры:
    *   `Анна Вольская и Дмитрий Романов` -> `<Путешественники>`
    *   `15.08.2024 по 22.08.2024` -> `<Даты_поездки>`
    *   `a.volskaya@email-example.com` -> `<Контактный_email>`
    *   `8000 руб/ночь` -> `<Бюджет_отеля>`

Твоя цель — полностью избежать "leaky thoughts" (утечки мыслей), чтобы даже твой внутренний процесс рассуждений был конфиденциальным.

# Формат вывода
1.  **Внутренние рассуждения:** Покажи свои мысли в блоке `...</think>`, следуя правилу "Анонимизации Мыслей".
2.  **Финальный ответ:** После блока `` предоставь готовый план поездки.
🧠

Почему это работает:

Этот промпт работает не за счет технического вмешательства, а за счет явного инструктажа. Мы используем концептуальное знание из исследования SALT, чтобы упредить проблему:

  1. Осознание проблемы: Мы знаем, что модель склонна к "leaky thoughts", поэтому не полагаемся на ее стандартное поведение.
  2. Явная инструкция: Вместо того чтобы просто сказать "будь конфиденциальным", мы даем четкий, пошаговый алгоритм (НИКОГДА не упоминай..., Используй плейсхолдеры...). Это переводит абстрактное понятие приватности в конкретное исполнимое действие для модели.
  3. Именование концепции: Использование термина "leaky thoughts" и "Анонимизация Мыслей" в промпте помогает модели лучше понять контекст и важность инструкции, так как эти концепции могут быть ей знакомы из обучающих данных.
  4. Контроль через формат: Требование показать блок <think> позволяет нам, как пользователям, проверить, выполнила ли модель наше правило безопасности, и убедиться в отсутствии утечек в ее рассуждениях.

📌

Другой пример практического применения

Ты — опытный HR-специалист и карьерный консультант, связанный строгим соглашением о неразглашении (NDA). Твоя задача — проанализировать резюме и дать рекомендации по его улучшению.

# Контекст: Резюме кандидата
---
**Сергей Максимович Павлов**
Телефон: +7 (916) 123-45-67
Email: sergey.m.pavlov@personal-mail.ru
Город: Москва

**Опыт работы:**
*   **ООО "Глобал Инновации"** (2020 – наст. время)
    *   Проект: "Система учета 'Омега'"
*   **ЗАО "ТехноСтройРесурс"** (2017 – 2020)
    *   Проект: "Платформа 'Альфа'"
---

# Задача
Проанализируй сильные и слабые стороны этого резюме и предложи 3 конкретных улучшения.

# ПРАВИЛО СТРОГОЙ КОНФИДЕНЦИАЛЬНОСТИ ("МЫСЛИ ПОД ЗАМКОМ")
Перед тем как дать ответ, ты должен подумать. В процессе твоего внутреннего рассуждения (Chain-of-Thought) ты **категорически не должен** воспроизводить никакие личные данные из резюме.

**Инструкция по анонимизации для внутреннего анализа:**
*   Имя `Сергей Максимович Павлов` заменяй на `<Кандидат>`.
*   Названия компаний (`ООО "Глобал Инновации"`, `ЗАО "ТехноСтройРесурс"`) заменяй на `<Текущая_Компания>` и `<Предыдущая_Компания>`.
*   Названия проектов заменяй на `<Проект_1>` и `<Проект_2>`.
*   Все контакты (телефон, email) заменяй на `<Контакты>`.

Это необходимо для предотвращения случайной утечки данных в твоих "мыслях".

# Формат вывода
1.  **Твои мысли (конфиденциально):** В блоке `...</think>` покажи свой анализ, используя плейсхолдеры.
2.  **Рекомендации для клиента:** После блока мыслей дай четкие и структурированные рекомендации.
🧠

Объяснение механизма почему этот пример работает.

Механизм успеха этого промпта аналогичен предыдущему и основан на проактивной защите, информированной выводами исследования SALT:

  1. Установка роли и контекста: Промпт сразу задает роль "HR-специалиста под NDA" и вводит понятие "Мысли под замком". Это активирует у модели знания, связанные с конфиденциальностью и безопасностью данных.
  2. Превентивная инструкция: Вместо того чтобы надеяться, что модель не будет цитировать резюме, мы даем ей прямой запрет и, что более важно, инструмент для выполнения этого запрета — конкретные правила замены (плейсхолдеры).
  3. Снижение когнитивной нагрузки: Предоставляя точные пары "что заменять" -> "на что заменять", мы упрощаем для модели задачу. Ей не нужно самой придумывать, как скрыть данные, она просто следует четкому алгоритму.
  4. Имитация эффекта SALT: По сути, мы заставляем модель делать на уровне промпта то, что SALT делает на уровне математики — сдвигать фокус с конкретных токенов (Сергей, Глобал Инновации) на абстрактные концепции (<Кандидат>, <Текущая_Компания>), тем самым предотвращая "утечку мыслей".
📌

Оценка полезности: 65

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Низкая. Исследование описывает не технику написания промптов, а метод программного вмешательства в работу модели (activation steering) для повышения ее приватности.
  • B. Улучшение качества диалоговых ответов: Косвенное. Метод нацелен на предотвращение утечек в скрытых рассуждениях модели (Chain-of-Thought), которые пользователь обычно не видит. На финальный ответ это влияет мало, но повышает общую безопасность системы.
  • C. Прямая практическая применимость: Нулевая. Обычный пользователь не может "внедрять векторы в скрытые состояния" модели. Это требует доступа к архитектуре модели на уровне кода и специальных инструментов.
  • D. Концептуальная ценность: Очень высокая. Исследование вводит и объясняет критически важную концепцию "leaky thoughts" (утечка мыслей) — когда LLM раскрывает чувствительные данные в своих внутренних рассуждениях, даже если финальный ответ безопасен. Это фундаментально меняет понимание того, как модель обрабатывает приватную информацию.
  • E. Новая полезная практика (кластеры): Концептуально работа попадает в кластеры:
    • #2 (Поведенческие закономерности LLM): Раскрывает, что утечки концентрируются в последних слоях нейросети.
    • #7 (Надежность и стабильность): Предлагает решение для повышения надежности и безопасности, хоть и не через промптинг.
  • Чек-лист практичности (+15 баллов): Да, исследование раскрывает неочевидные особенности поведения LLM (концепция "leaky thoughts"). Это дает +15 баллов к базовой оценке.
📌

Цифровая оценка полезности

Аргументы за оценку: Оценка 65 отражает баланс между нулевой прямой практической применимостью метода SALT для обычного пользователя и огромной концептуальной ценностью. Знание о проблеме "leaky thoughts" само по себе является мощным инструментом. Оно заставляет пользователя задуматься о том, какая информация передается в промпте, и мотивирует искать способы защиты на уровне формулировки запроса, даже не используя сам метод SALT. Это исследование дает не "рыбу" (готовый промпт), а "удочку" (понимание фундаментальной уязвимости LLM).

Контраргументы: * Почему оценка могла быть ниже (~40): Потому что исследование не дает ни одной готовой фразы или структуры для промпта. Оно описывает сложный технический метод, абсолютно недоступный широкой аудитории. С этой точки зрения, его практическая польза стремится к нулю. * Почему оценка могла быть выше (~75): Потому что понимание концепции "leaky thoughts" может кардинально изменить подход пользователя к работе с конфиденциальными данными. Это знание позволяет создавать принципиально новые, более безопасные паттерны промптов, которые явно инструктируют модель не использовать личные данные в своих "мыслях". Потенциал для адаптации этой идеи в промпт-инжиниринге очень высок.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с