3,583 papers
arXiv:2507.05788 82 11 июля 2025 г. PRO

Длинный диалог с LLM — это не разговор с человеком, у которого есть память.

КЛЮЧЕВАЯ СУТЬ
Длинный диалог с LLM — это не разговор с человеком, у которого есть память. Это серия отдельных запросов, где модель каждый раз заново интерпретирует контекст. И чем длиннее история, тем выше шанс что она уедет куда-то не туда. Принцип самодостаточного запроса (SAQ) позволяет вести сложные многошаговые беседы без потери точности — даже когда история чата насчитывает десятки сообщений. Фишка: вместо того чтобы надеяться на «память» модели, ты сам выносишь весь нужный контекст прямо в новый запрос — модели не надо ничего «вспоминать». Декомпозиция задачи добавляет второй слой: разбивает расплывчатое «помоги с X» на цепочку конкретных шагов. Итог: предсказуемый структурированный ответ вместо лотереи.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с