3,583 papers
arXiv:2510.01270 78 29 сент. 2025 г. PRO

Progressive Self-Reflection (PSR): модель проверяет себя во время генерации и откатывается при ошибке

КЛЮЧЕВАЯ СУТЬ
LLM генерируют вредный контент не потому что 'не знают' — они прекрасно различают вредное и безопасное. Проблема в инерции: модель начала токен 'Вот как украсть...' и продолжает по паттерну, как студент врущий на экзамене. PSR позволяет модели 'опомниться' во время генерации — остановка каждые 32 токена и вопрос себе: 'это вредно?'. Фишка: вставить точки проверки (checkpoint) через каждые K токенов. Модель оценивает p(harmless) vs p(harmful). Если harmful выше — откат к последней безопасной точке и генерация заново. Работает без дообучения.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с