3,583 papers
arXiv:2509.19358 80 18 сент. 2025 г. PRO

Робастность персонализации: когда предпочтения ломают правильность ответа

КЛЮЧЕВАЯ СУТЬ
Попросил модель 'отвечать кратко' — получил короткий, но НЕПРАВИЛЬНЫЙ ответ. Даже GPT-4.1 ломается в 5% случаев при попытке следовать твоим предпочтениям, Mistral-7B проваливается в 26%. Метод Pref-Aligner позволяет получать ответы в нужном тебе стиле БЕЗ потери фактической правильности. Разделяет задачу на два этапа: сначала модель отвечает правильно (без стилевых ограничений), потом адаптирует под твои предпочтения через лёгкую редактуру. Снижение ошибок на 25% в среднем.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с