3,583 papers
arXiv:2509.02534 68 2 сент. 2025 г. PRO

Совместное усиление разнообразия и качества в генерациях языковых моделей

КЛЮЧЕВАЯ СУТЬ
Обнаружено: RLHF-обучение на «полезность» заставляет LLM избегать рискованных идей и выдавать безопасные шаблонные ответы — это называется «коллапс разнообразия». DARLING позволяет обучать модель так, чтобы она генерировала не только правильные, но и семантически уникальные ответы, что парадоксально повышает и креативность, и точность. Механика: модель получает усиленную награду за ответ, который одновременно качественный И непохож на другие её варианты — это заставляет исследовать пространство решений вместо эксплуатации очевидных путей. Результат: +23% разнообразия при сохранении качества, а в сложных задачах — нахождение лучших решений через вариативность.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с