3,583 papers
arXiv:2507.03543 90 4 июля 2025 г. PRO

H2HTalk: Оценка больших языковых моделей как эмоциональных компаньонов

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохи в долгосрочных диалогах — они забывают контекст через 2-3 сообщения и не понимают невысказанных потребностей (implicit needs). Отсюда поверхностные ответы в стиле "вот 5 советов". H2HTalk позволяет превратить LLM в персонального компаньона, который помнит детали ваших прошлых разговоров и реагирует на эмоции, а не только на слова. Механика: вы встраиваете в промпт три компонента — память (что модель должна помнить о вас), эмпатию (как валидировать чувства) и "собственную жизнь" ИИ (он делится опытом, а не только слушает). Модель перестает быть одноразовым инструментом и становится собеседником с контекстом. В тестах это дало +67% качества в задачах на понимание неявных запросов — вместо "вот статья про стресс" модель пишет "помню, ты говорил о презентации на следующей неделе — давай разберем именно этот страх".
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с