3,583 papers
arXiv:2601.16508 72 23 янв. 2026 г. PRO

Длина диалога и точность LLM: когда разговор становится опасным

КЛЮЧЕВАЯ СУТЬ
Парадокс: Qwen2.5 в длинном диалоге с противоречивой информацией делает больше ошибок, но при этом реже говорит «не знаю» — уверенность растёт, точность падает. Это противоположность безопасному поведению. Исследование на трёх моделях (Phi-4, DeepSeek-7B, Qwen2.5) показало: длина диалога + тип контекста выявляют уязвимости, которые не видны в обычных бенчмарках. Каждая модель ломается по-своему: Qwen увереннее врёт, Phi-4 осторожничает (ответы «не знаю» с 1% до 20%+), DeepSeek проваливается на одиночных вопросах (14% точность), но оживает в диалоге. Решение: разделяй мозгоштурм и проверку фактов в разные чатысброс контекста убирает накопленные смещения.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с