3,583 papers
arXiv:2510.11812 76 13 окт. 2025 г. PRO

Явные запреты в промптах: как остановить "призрачную память" LLM

КЛЮЧЕВАЯ СУТЬ
Парадокс: LLM проваливаются на знакомых задачах, если изменить детали. В головоломке с кувшинами правильный ответ стал тривиальным (0 переливаний), но модели упорно выдавали сложные многошаговые решения из памяти. Это называется phantom recall (призрачная память) — модель воспроизводит заученный паттерн, а не рассуждает заново. Метод позволяет заставить LLM работать строго с тем, что дано в условии, не домысливая и не воспроизводя шаблоны. Фишка: добавь явные запреты — "✗ НЕ используй внешние знания", "✗ НЕ делай предположений". Плюс трёхэтапный протокол: (1) дважды прочитай, (2) решай пошагово с проверкой, (3) проверь ответ обратной подстановкой. Точность растёт на 5-10% — модель реже уходит в заученные решения.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с