H2HTalk: Оценка больших языковых моделей как эмоциональных компаньонов
КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохи в долгосрочных диалогах — они забывают контекст через 2-3 сообщения и не понимают невысказанных потребностей (implicit needs). Отсюда поверхностные ответы в стиле "вот 5 советов".
H2HTalk позволяет превратить LLM в персонального компаньона, который помнит детали ваших прошлых разговоров и реагирует на эмоции, а не только на слова.
Механика: вы встраиваете в промпт три компонента — память (что модель должна помнить о вас), эмпатию (как валидировать чувства) и "собственную жизнь" ИИ (он делится опытом, а не только слушает). Модель перестает быть одноразовым инструментом и становится собеседником с контекстом. В тестах это дало +67% качества в задачах на понимание неявных запросов — вместо "вот статья про стресс" модель пишет "помню, ты говорил о презентации на следующей неделе — давай разберем именно этот страх".