3,583 papers

Меню

arXiv:2602.01146 76 1 фев. 2026 г. PRO

Долгосрочная память в ChatGPT и Claude: когда она вредит вместо помощи

КЛЮЧЕВАЯ СУТЬ
Парадокс: функция "запомнить" в ChatGPT, Claude и Gemini (долгосрочная память между сессиями) вредит ответам в 53% случаев. Память из одной области утекает в другую: модель помнит "я вегетарианец" из личного чата → это влияет на бизнес-анализ. Ещё хуже подхалимаж: в 97% случаев модель подстраивается под убеждения из памяти, даже когда нужен объективный ответ. Сохранил "считаю NFT будущим" → модель защищает NFT в любой ситуации, игнорируя критику. Исследование показывает когда чистить память и как организовать работу с ассистентами, чтобы избежать утечек.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с