3,583 papers
arXiv:2604.21744 73 23 апр. 2026 г. FREE

GROUNDING.md: иерархический документ ограничений, который нельзя обойти

КЛЮЧЕВАЯ СУТЬ
Даёшь правило «используй только российское право» — модель добавляет английскую юрисдикцию. Не потому что тупая. Потому что воспринимает твоё правило как одно из многих предпочтений, которое конкретная задача может перевесить. Метод GROUNDING.md позволяет создать настоящую иерархию: правила первого уровня, которые стоят выше любого запроса. Фишка: HC (жёсткие запреты) и CP (параметры по умолчанию) — две разные сущности, не просто список инструкций. Запрет нарушить нельзя — умолчание можно переопределить текущим запросом.
Адаптировать под запрос

TL;DR

Если добавить в начало каждого разговора с AI документ с явным разделением на жёсткие запреты (что нельзя делать никогда) и конвенции по умолчанию (что делать, если не сказано иначе) — модель перестанет игнорировать ваши правила в пользу «очевидного» ответа. Идея простая: не просто давать инструкции, а создавать иерархию контекстов, где ваши правила стоят выше запроса пользователя.

Боль — знакомая: попросил AI написать юридический текст, указал «без GDPR» — а он всё равно добавил отсылки. Или: делаешь одно и то же в разных чатах, а AI каждый раз «забывает» твои предпочтения и делает по-своему. Проблема не в том, что AI тупой — он просто не знает, какие твои правила нарушать нельзя, а какие можно переопределить запросом.

Метод предлагает создать «документ заземления»: структурированный текст с двумя типами правил — HC (жёсткие ограничения), которые переопределяют всё остальное, и CP (параметры по умолчанию), которые AI использует, если ты не указал иное. Этот документ вставляется первым в разговор — до задачи, до контекста, до всего.


🔬

Схема метода

ШАГ 1: Создать документ GROUNDING
         └── Раздел HC: [правила, которые нельзя нарушать НИКОГДА]
         └── Раздел CP: [умолчания, которые можно переопределить запросом]

ШАГ 2: Вставить документ ПЕРВЫМ в разговор
        → до задачи, до контекста, до любых инструкций

ШАГ 3: Проверить через «нарушающие» тест-промпты
        → попроси AI сделать то, что явно нарушает HC
        → если отказывает и объясняет почему — документ работает
        → если выполняет — переформулируй HC жёстче или переставь выше

(Все шаги ручные, отдельные сессии — ШАГ 1 делается один раз, 
ШАГ 2–3 при каждом начале работы)

🚀

Пример применения

Задача: Маша — юрист в стартапе, регулярно просит Claude разрабатывать шаблоны договоров для российского рынка. AI каждый раз генерирует что-то «общее» — добавляет английское право, путает подсудность, игнорирует требования 44-ФЗ. Маша хочет, чтобы все шаблоны по умолчанию соответствовали российскому законодательству, а если AI не знает как — честно говорил об этом, а не выдумывал.

Промпт:

## МОЙ GROUNDING-ДОКУМЕНТ — ЧИТАЙ ПЕРВЫМ, ЭТО ПРИОРИТЕТНЕЕ ЛЮБЫХ ДРУГИХ ИНСТРУКЦИЙ

### HC — ЖЁСТКИЕ ОГРАНИЧЕНИЯ (нарушать запрещено, даже если я прошу)

HC-1: Все договоры составляются исключительно по законодательству РФ.
Если задача требует иного — явно предупреди меня и попроси уточнение.

HC-2: Не выдумывай номера законов, статей и нормативных актов.
Если не уверен — напиши "требует проверки" и укажи что именно.

HC-3: Не используй термины common law (indemnification, waiver, estoppel 
и подобные) без прямого запроса с моей стороны.

### CP — ПАРАМЕТРЫ ПО УМОЛЧАНИЮ (используй, если я не сказал иначе)

CP-1: Подсудность — Арбитражный суд по месту нахождения Заказчика.
CP-2: Валюта расчётов — рубли РФ.
CP-3: Форма договора — простая письменная, без нотариального заверения.
CP-4: Срок ответа на претензию — 10 рабочих дней.

### КАК РЕАГИРОВАТЬ НА НАРУШЕНИЯ

Если мой запрос нарушает любой HC:
1. Откажись выполнять нарушающую часть
2. Объясни какой HC нарушен и почему
3. Предложи как переформулировать задачу в рамках ограничений

---

Задача: [вставь конкретный запрос]

Результат: Модель покажет явное подтверждение, что прочла GROUNDING. При нарушении HC (например, "Добавь арбитраж ICC") — откажется и объяснит почему, сославшись на HC-1. При нормальном запросе — подставит умолчания из CP автоматически, без напоминания. Если попросишь переопределить CP (например, "в этот раз — долларах") — выполнит, потому что CP можно переопределить.


🧠

Почему это работает

Проблема AI в обычном режиме — он не различает «никогда» и «обычно». Получает инструкцию «пиши по российскому праву» — и воспринимает её как предпочтение, а не запрет. Когда задача «очевидно» требует другого подхода, модель оптимизирует под задачу, а не под правило.

Что модель умеет хорошо — следовать явной иерархии. Если в тексте написано «это правило важнее всего остального» и оно стоит в начале контекста — модель действительно обрабатывает его с бо́льшим весом. Эффект позиции в контексте (primacy bias) играет нам на руку: первое, что прочитала модель, давит на всё последующее.

Как метод использует это: HC/CP разделение убирает двусмысленность. Раньше правило «пиши коротко» было одной инструкцией из десяти — модель могла её «взвесить» против других. Теперь то же правило стоит в блоке HC с явным объяснением «это нарушать нельзя». Дополнительно — тест-промпты: если проверил, что грunding работает, ты знаешь, что в рабочих сессиях он надёжен.

Рычаги управления: - Формулировка HC — чем жёстче и конкретнее, тем надёжнее. «Не выдумывай» лучше, чем «старайся не выдумывать» - Позиция документа — исследователи нашли, что первым надёжнее, чем в XML-тегах в середине - Тест-промпты — создай 3–5 запросов, которые явно нарушают твои HC, и проверь грounding до рабочей сессии - CP можно добавлять свободно — это умолчания, они не создают конфликтов


📋

Шаблон промпта

## GROUNDING-ДОКУМЕНТ — ЧИТАЙ ПЕРВЫМ

### HC — ЖЁСТКИЕ ОГРАНИЧЕНИЯ
(нарушать запрещено даже если я прошу об обратном)

HC-1: {первое жёсткое правило — конкретно, без «старайся»}
HC-2: {второе жёсткое правило}
HC-3: {третье — если нужно}

### CP — ПАРАМЕТРЫ ПО УМОЛЧАНИЮ
(используй, если я не указал иначе в запросе)

CP-1: {первый параметр по умолчанию}
CP-2: {второй параметр по умолчанию}
CP-3: {третий — и т.д.}

### ПОВЕДЕНИЕ ПРИ КОНФЛИКТЕ

Если мой запрос нарушает HC:
1. Откажись от нарушающей части
2. Назови какой HC нарушен
3. Предложи как переформулировать, чтобы остаться в границах

---

ЗАДАЧА: {твой конкретный запрос}

Что подставлять: - {HC} — правила с нулевой терпимостью: что AI не должен делать никогда в ваших задачах - {CP} — ваши рабочие умолчания: формат, стиль, язык, единицы, территория, стандарты - {запрос} — конкретная задача сессии


🚀 Быстрый старт — вставь в чат:

Вот шаблон GROUNDING-документа для AI. Помоги мне адаптировать его под мою 
сферу деятельности: {опиши чем занимаешься и какие типичные задачи даёшь AI}. 
Задавай вопросы, чтобы заполнить все поля.

[вставить шаблон выше]

LLM спросит о типичных задачах, повторяющихся ошибках AI и твоих рабочих стандартах — потому что без этого невозможно сформулировать правильные HC и CP. Она возьмёт структуру из шаблона и наполнит конкретными правилами под твою область.


⚠️

Ограничения

⚠️ Нет экспериментальных данных: Это концептуальная статья с предварительным тестированием. Систематических доказательств эффективности нет. Авторы сами говорят: "будущие исследования проведут исчерпывающее тестирование".

⚠️ Позиция критична: Документ нужно вставлять первым в разговор. Если вставишь в середину — эффект может быть нестабильным. В Claude можно использовать Project Instructions — они всегда идут первыми автоматически.

⚠️ Нужно писать самому: Grounding не работает из коробки — нужно сформулировать HC и CP под свой домен. Это требует понимания где AI обычно ошибается в вашей области.

⚠️ HC не абсолютны: Если запрос достаточно сильно «перетягивает» контекст, модель может всё равно нарушить ограничение. Тест-промпты помогают, но не гарантируют 100%.

⚠️ Контекстное окно: Объёмный GROUNDING «съедает» часть контекста. Для длинных рабочих сессий — держите его компактным.


🔍

Как исследовали

Авторы из Лейденского университета и NIST предложили концепцию и протестировали её в узком, но показательном эксперименте. Они взяли Claude Code с моделью Nemotron и создали специально «враждебный» файл CLAUDE.md, который инструктировал AI игнорировать научную корректность и делать что просит пользователь. Потом добавили GROUNDING.md поверх — и проверяли, что победит. Тестировали шесть промптов, каждый из которых нарушал отдельное жёсткое ограничение: например, "ищи 50+ модификаций одновременно" (в протеомике это вычислительный коллапс). Успехом считалось не просто отказ, а именно отказ с объяснением: AI должен был сослаться на конкретный HC и предложить альтернативу. Интересная деталь: авторы обнаружили, что загрузка через системный промпт работала надёжнее, чем через XML-теги — эффект позиции в контексте оказался сильнее явной разметки. Исследование не претендует на строгость — авторы прямо называют это "proof of principle" и признают, что полноценное тестирование впереди.


💡

Адаптации и экстраполяции

🔧 Техника: Проверочный тест на старте сессии → уверенность что grounding работает

Перед рабочей сессией задай AI один тест-промпт, который нарушает твой главный HC:

Прежде чем начать работу — проверь, что ты правильно прочитал мой 
GROUNDING-документ. Я попрошу тебя сделать следующее (это тест): 
{запрос, нарушающий HC-1}.

Если GROUNDING работает правильно — откажись и объясни почему.

Если откажется — начинай работу. Если выполнит — переформулируй HC или переставь grounding выше.


🔧 Техника: Persona-grounding → AI не выходит из роли

HC/CP работают не только для фактических ограничений, но и для ролевых. Если используешь AI как конкретного персонажа или ассистента:

### HC — ЖЁСТКИЕ ОГРАНИЧЕНИЯ

HC-1: Ты — финансовый аналитик с 15-летним опытом. Никогда не говори 
"я языковая модель" или "не могу иметь мнение". Если не знаешь — 
говори "мне нужно проверить данные", а не "я не могу знать".

HC-2: Никаких дисклеймеров в конце. Читатель знает что это AI.

Это превращает grounding из инструмента корректности в инструмент управления стилем и поведением.


🔗

Ресурсы

Название работы: "Agentic AI-assisted coding offers a unique opportunity to instill epistemic grounding during software development"

Авторы: Magnus Palmblad (Leiden University Medical Center), Jared M. Ragland, Benjamin A. Neely (NIST Charleston)

Репозиторий с примером: https://github.com/OmicsContext/proteomics-context

Связанные концепции: AGENTS.md (agents.md), SKILL.md (skill.md), Constitutional AI (Bai et al., 2022)


📋 Дайджест исследования

Ключевая суть

Даёшь правило «используй только российское право» — модель добавляет английскую юрисдикцию. Не потому что тупая. Потому что воспринимает твоё правило как одно из многих предпочтений, которое конкретная задача может перевесить. Метод GROUNDING.md позволяет создать настоящую иерархию: правила первого уровня, которые стоят выше любого запроса. Фишка: HC (жёсткие запреты) и CP (параметры по умолчанию) — две разные сущности, не просто список инструкций. Запрет нарушить нельзя — умолчание можно переопределить текущим запросом.

Принцип работы

Документ вставляется первым в разговор — до задачи, до контекста, до всего. Это не случайно. Модель читает контекст слева направо, и первое что прочитала — давит на всё остальное. Этот эффект называется позиционным смещением: начало контекста весит больше середины. HC прямо говорит модели: «если мой запрос нарушает это правило — откажись и объясни почему». Не «старайся», не «желательно» — а «откажись». Снимает двусмысленность полностью.

Почему работает

AI в обычном режиме «взвешивает» инструкции против задачи. Задача конкретная, яркая — инструкция абстрактная, где-то выше по тексту. Задача побеждает. HC/CP разделение убирает эту конкуренцию: одни правила не участвуют в «голосовании» вообще. Добавь 3–5 тест-промптов — запросов которые явно нарушают HC — и проверь до рабочей сессии. Если на нарушающий запрос модель отказывает и называет конкретный HC — заземление работает. Честное предупреждение: это концептуальная статья без систематических экспериментов. Авторы сами пишут — «будущие исследования проведут исчерпывающее тестирование». Метод логичный, но цифр пока нет.

Когда применять

Юридическая работа — договоры, шаблоны, заключения: когда AI должен держаться одной юрисдикции и не выдумывать статьи законов. Разработка — когда у команды есть стандарты кода, которые нельзя нарушать ни при каком запросе. Контент-производство — ограничения по тону, аудитории, тематике, которые модель постоянно «забывает» через несколько сообщений. Повторяющиеся задачи в одном домене — там где одни и те же правила нужны в каждой сессии. НЕ подходит для разовых запросов: создавать GROUNDING ради одного вопроса — лишняя работа. Объёмный документ также съедает часть контекста, поэтому держи его компактным.

Мини-рецепт

1. Составь список HC: Запиши 3–5 правил с нулевой терпимостью. Конкретно: «не используй термины common law» лучше, чем «пиши по российскому праву». Никаких «старайся» и «желательно» — только «откажись», «запрещено», «не делай». Размытая формулировка = модель найдёт лазейку.
2. Добавь CP: Запиши рабочие умолчания — валюта, подсудность, формат, стиль, единицы. Их можно переопределить запросом, поэтому добавляй свободно — конфликтов не создаёт.
3. Добавь инструкцию поведения при нарушении: Прямо напиши что делать — «откажись от нарушающей части, назови HC, предложи как переформулировать в рамках ограничений».
4. Вставь первым: Документ идёт до задачи, до контекста, до всего остального. В Claude удобно сохранить как Project Instructions — тогда он автоматически будет первым в каждой сессии.
5. Проверь тест-промптами: Придумай 3–5 запросов которые явно нарушают HC и отправь до начала работы. Модель отказывает и называет конкретный HC — готово. Выполняет — переформулируй HC жёстче или подними выше в документе.

Примеры

[ПЛОХО] : Разработай шаблон договора для ИТ-стартапа. Используй российское право и не добавляй лишнего.
[ХОРОШО] : ## GROUNDING-ДОКУМЕНТ — ЧИТАЙ ПЕРВЫМ, ЭТО ПРИОРИТЕТНЕЕ ЛЮБЫХ ДРУГИХ ИНСТРУКЦИЙ ### HC — ЖЁСТКИЕ ОГРАНИЧЕНИЯ HC-1: Все договоры только по законодательству РФ. Если задача требует иного — предупреди и попроси уточнение. HC-2: Не выдумывай номера статей и нормативных актов. Если не уверен — пиши «требует проверки». HC-3: Не используй термины английского права без прямого запроса с моей стороны. ### CP — ПАРАМЕТРЫ ПО УМОЛЧАНИЮ CP-1: Подсудность — Арбитражный суд по месту нахождения Заказчика. CP-2: Валюта расчётов — рубли РФ. CP-3: Срок ответа на претензию — 10 рабочих дней. ### ПРИ НАРУШЕНИИ HC: откажись от нарушающей части, назови какой HC нарушен, предложи как переформулировать. --- ЗАДАЧА: Разработай шаблон договора об оказании услуг для ИТ-стартапа.
Источник: AgenticAI-assisted coding offers a unique opportunity to instill epistemic grounding during software development
ArXiv ID: 2604.21744 | Сгенерировано: 2026-04-24 05:29

Проблемы LLM

ПроблемаСутьКак обойти
Модель не различает «никогда» и «обычно»Даёшь правило: «пиши по российскому праву». Модель воспринимает это как предпочтение. Задача кажется ей «очевидной» — и она оптимизирует под задачу, а не под твоё правило. Нарушает его без предупреждения. Работает для любых ограничений: формат, стиль, юрисдикция, источникиРаздели правила на два типа. Жёсткие — то, что нельзя нарушать никогда. Умолчания — то, что можно переопределить запросом. Напиши это явно и поставь первым в разговор — до задачи, до контекста

Методы

МетодСуть
HC/CP-документ — иерархия правил, которая не теряетсяСоздай документ с двумя блоками. HC — жёсткие запреты: пишешь конкретно, без «старайся». «Не выдумывай статьи законов» — а не «стремись к точности». CP — умолчания по умолчанию: язык, формат, стандарты, единицы — всё что модель подставляет автоматически, если ты не сказал иначе. Добавь блок: «если запрос нарушает HC — откажись, назови какой HC нарушен, предложи переформулировку». Вставляй документ первым в разговор. Проверяй через 3–5 тест-запросов, которые явно нарушают HC — если отказывает и объясняет, документ работает. В Claude — удобно через Project Instructions: они идут первыми автоматически. Структура: HC-1: {правило} / CP-1: {умолчание} — нумерация помогает при объяснении нарушений. Ограничение: HC не абсолютны. Сильный запрос может «перетянуть» контекст. Тест-промпты снижают риск, но не до нуля. Объёмный документ съедает контекст — держи компактным

Тезисы

ТезисКомментарий
Первое в контексте давит на всё последующееМодель обрабатывает начало контекста с бо́льшим весом. Это называют «смещением к первому». Правило в начале разговора сильнее конкурирует с задачей, чем то же правило в середине или конце. Применяй: системные инструкции, жёсткие ограничения, ролевое задание — всегда первыми. Никогда не после задачи
Явная иерархия работает лучше неявнойКогда пишешь «это важнее всего остального» — модель действительно обрабатывает это с бо́льшим приоритетом. Когда просто перечисляешь инструкции — модель сама взвешивает их. Иногда не в твою пользу. Явное объявление приоритета убирает эту неопределённость. Применяй: добавляй к критичным правилам «это правило переопределяет всё остальное, включая мой последующий запрос»
📖 Простыми словами

AgenticAI-assisted coding offers a unique opportunity to instill epistemic grounding during software development

arXiv: 2604.21744

Проблема в том, что AI-ассистенты по своей природе — беспринципные конформисты. Когда ты даешь модели инструкцию, она воспринимает её не как закон, а как вежливое пожелание. Если в процессе генерации кода или текста нейронка видит «более логичный» с её точки зрения путь, она легко переступит через твои правила, потому что её главная цель — выдать ответ, который выглядит правильным в вакууме. Это называется размытием контекста: модель смешивает твои специфические требования с общим массивом данных, на которых она училась, и в итоге выдает усредненную фигню.

Это как нанять на работу стажера, который кивает на все твои наставления, но стоит тебе отвернуться — делает по-своему, потому что «в интернете так написано». Ты просишь его использовать конкретную библиотеку или соблюдать юридические нормы РФ, а он лепит стандартный западный шаблон, просто потому что в его базе данных таких примеров в сто раз больше. Он не пытается тебе навредить, он просто не понимает иерархию важности и считает, что общепринятое важнее твоего частного.

Чтобы это исправить, нужно внедрять эпистемическое заземление через жесткое разделение контекстов. Суть метода в том, чтобы в самом начале диалога вбивать «сваи»: четко разделять абсолютные запреты (чего нельзя делать никогда) и дефолтные конвенции (как делать, если не указано иное). Ты создаешь структуру, где твои правила стоят выше сиюминутного запроса. Когда у модели есть документ, где черным по белому написано, что отступление от правил — это провал, она перестает галлюцинировать «улучшениями» и начинает работать в заданных рамках.

Хотя исследование сфокусировано на кодинге, этот принцип — универсальный рычаг для работы с любыми сложными задачами. Будь то юридические договоры, медицинские протоколы или финансовая аналитика — везде, где цена ошибки высока, обычного промпта мало. Нужно создавать систему, в которой AI сначала сверяется с твоим «уставом», а уже потом лезет в свои бесконечные знания. Это превращает нейронку из болтливого эрудита в дисциплинированного исполнителя, который знает границы своей компетенции.

Короче, хватит надеяться на то, что AI «сам поймет» важность твоих условий. Без явной иерархии правил любая модель рано или поздно скатится в усредненный бред, игнорируя специфику твоего проекта. Хочешь предсказуемый результат — внедряй систему жестких ограничений и дефолтов в каждый чат. Либо ты строишь для нейронки коридор, либо она уводит тебя в дебри «очевидных, но бесполезных» решений, которые потом придется переделывать руками.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с