3,583 papers
arXiv:2510.14205 73 16 окт. 2025 г. PRO

DPRF: Итеративная оптимизация персоны LLM-агента через анализ когнитивных расхождений

КЛЮЧЕВАЯ СУТЬ
Написал персону 'опытный дизайнер' — получил общего дизайнера из учебника, а не Джонатана Айва. LLM генерирует стереотипное поведение, когда просишь 'You are an expert', потому что угадывает персону из обучающих данных, а не выводит из поведения конкретного человека. DPRF позволяет создавать персоны для симуляции конкретных людей — модель точно копирует стиль мышления, эмоции, аргументацию реального человека. Фишка: персона становится оптимизируемым параметром, а не статичным описанием. Три агента в цикле: первый генерирует ответ по персоне → второй анализирует различия с эталоном (что не так в убеждениях, эмоциях, стратегиях) → третий улучшает персону. Повторяешь 3-5 раз — персона из умозрительной превращается в основанную на реальных данных.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с