3,583 papers
arXiv:2512.10563 72 11 дек. 2025 г. PRO

NormCode: изоляция контекста через явную передачу данных

КЛЮЧЕВАЯ СУТЬ
Парадокс: Чем больше контекста даёшь LLM в одном промпте, тем хуже качество. Модель теряется в деталях, цепляется за нерелевантное, ошибка из шага 2 превращается в галлюцинацию к шагу 7. Исследования показывают: сверхдлинные промпты снижают точность. NormCode позволяет строить многошаговые AI-планы, где каждый шаг физически не видит ничего кроме явно переданных данных. Нет истории — нет утечки черновых мыслей и противоречий. Механика: принудительная изоляция на уровне языка. Каждый блок (инференс) получает только перечисленные входы — если данных нет в списке, модель не может их "вспомнить". Ошибка остаётся в своём блоке, не заражает следующие шаги. Весь NormCode можно не ставить — принципы работают через отдельные чаты с явной передачей данных.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с