3,583 papers
arXiv:2511.05286 68 7 нояб. 2025 г. PRO

Рефлексивная оптимизация персонализации: пост-хок фреймворк переписывания для больших языковых моделей в "черном ящике"

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM проваливается в персонализации не от слабости, а от «конфликта задач» — когда модель одновременно пытается генерировать точный контент И подражать стилю, она делает оба дела хуже. Метод RPO позволяет получать персонализированный контент высокого качества через разделение процесса на два этапа. Сначала модель генерирует точный, но безличный «скелет» ответа, затем вторая модель переписывает его под стиль пользователя — это устраняет конфликт и значительно улучшает качество персонализации по сравнению с попыткой сделать всё в одном промпте.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с