3,583 papers
arXiv:2509.07133 73 8 сент. 2025 г. PRO

PKG Adaptation: разрушаем пузыри персонализации через адаптацию контекста

КЛЮЧЕВАЯ СУТЬ
Текстовая инструкция "дай что-то другое" проваливается. В экспериментах простой промпт "избегай томатов" дал 19.3% новых рекомендаций, а модификация графа - 32.4%. Почему? LLM читает не слова, а структуру контекста. Метод PKG Adaptation позволяет разрушить "пузыри фильтров" - когда модель застревает в одном типе рекомендаций (например, "только итальянское с томатами"). Фишка: не переобучаем модель, а меняем сам граф предпочтений ДО отправки промпта. Три стратегии: мягкое снижение весов (5→2), инверсия оценок (5→0), удаление связей - результат в 1.7 раза лучше текстовых инструкций.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с