3,583 papers
arXiv:2512.04868 74 4 дек. 2025 г. FREE

SEAL: двухэтапная генерация через ядро и шаблон

КЛЮЧЕВАЯ СУТЬ
LLM отлично ловят суть вопроса, но проваливаются на точной структуре ответа. В сложных задачах модель понимает что нужно сделать, но генерирует с ошибками — путает вложенность, неправильно связывает элементы, создаёт валидную по форме, но некорректную по смыслу конструкцию. Метод SEAL позволяет генерировать сложные структурированные решения с меньшими ошибками через декомпозицию процесса. Фишка: разбить генерацию на три этапа — извлечь упрощённое ядро (суть без деталей), откалибровать его (проверить и исправить), заполнить готовый шаблон. Каждый шаг проще предыдущего — модель не держит всё в голове, а решает простые задачи последовательно.
Адаптировать под запрос

TL;DR

SEAL — метод для диалоговых систем над графами знаний, который разбивает сложную генерацию запроса на два этапа: сначала LLM извлекает минимальное ядро (core) — упрощённую версию запроса с основной логикой, затем агент калибрует его (исправляет синтаксис, привязывает к данным), а на втором этапе система выбирает шаблон под тип вопроса и заполняет его откалиброванным ядром и деталями.

Главная находка: LLM хорошо понимают суть запроса, но плохо генерируют точную структуру с первого раза. При генерации сложных структурированных запросов модель делает синтаксические ошибки, неправильно привязывает элементы к базе данных, создаёт валидные по форме, но семантически некорректные конструкции. Классический подход — проверять множество вариантов связывания элементов (entity linking) — экспоненциально растёт по сложности. Ещё проблема: в диалоге нужно разрешать отсылки к предыдущим репликам ("а его жена?", "те же, но старше 30").

Метод работает так: Этап 1 — LLM извлекает ядро запроса (JOIN, AND, базовые операции без деталей), агент проверяет синтаксис и привязывает к данным (выбирает одного самого похожего кандидата вместо десятков). Этап 2 — система предсказывает тип вопроса ("простой", "сравнение", "агрегация"), выбирает шаблон из библиотеки, заполняет плейсхолдеры ядром и функциями. Плюс механизм самообучения: локальная память (контекст диалога) + глобальная память (шаблоны, успешные паттерны) + рефлексия (анализ удачных решений) — система учится без переобучения.

🔬

Схема метода

ЭТАП 1: Извлечение и калибровка ядра
├─ LLM: Вопрос + контекст диалога → S-expression core (упрощённый запрос)
├─ Агент: Синтаксическая проверка → исправление ошибок
└─ Агент: Entity linking → привязка к базе (1 кандидат на элемент)

ЭТАП 2: Композиция через шаблон
├─ Система: Анализ вопроса → предсказание типа
├─ Система: Тип вопроса → выбор шаблона из библиотеки
└─ LLM: Шаблон + ядро + функции → полный запрос

САМООБУЧЕНИЕ (параллельно):
├─ Локальная память: Хранит контекст диалога, разрешает "он", "там" → конкретные сущности
├─ Глобальная память: Накапливает шаблоны и успешные паттерны
└─ Рефлексия: Анализирует успешные решения → обновляет глобальную память

Все этапы выполняются в рамках инфраструктуры системы (требуют API, базу знаний, код).

🚀

Пример применения

⚠️ Метод разработан для специфической задачи — запросов к графам знаний через структурированные языки (S-expressions, SPARQL). Ниже показаны извлечённые принципы, адаптированные для обычной работы в чате:

Задача: Анализ бизнес-идеи — подкаст про русских предпринимателей в стиле "Как делать деньги" Тинькова. Нужно оценить идею с разных сторон: рынок, монетизация, конкуренты, риски.

Промпт (принцип: ядро → детали + шаблоны):

ШАГ 1 — Извлечение ядра:

Вопрос: Оцени идею подкаста про русских предпринимателей в стиле Тинькова.

Извлеки ЯДРО анализа — 3-5 ключевых аспектов, которые нужно проверить для любой медиа-идеи. Без деталей, только структуру.

---

ШАГ 2 — Калибровка ядра:

Вот моё ядро: [вставить то, что выдала модель]

Проверь:
- Все ли критичные аспекты учтены (аудитория, монетизация, конкуренты)?
- Правильно ли приоритеты (сначала demand, потом детали)?
- Есть ли пропуски для медиа-проекта?

Исправь и дай откалиброванную версию.

---

ШАГ 3 — Заполнение шаблона:

Используй откалиброванное ядро. Для каждого аспекта:

[Аспект]:
- Данные: [конкретные цифры, примеры из рынка]
- Оценка: [хорошо/плохо/риск]
- Действие: [что проверить дальше]

Заполни под мою идею: подкаст про русских предпринимателей, стиль Тинькова, формат интервью 40-60 минут.

Результат:

Модель на первом шаге выдаст ядро анализа — короткий список критичных аспектов без деталей (размер аудитории, монетизация, конкуренты, формат, позиционирование).

На втором шаге проверит и исправит ядро — добавит пропущенное (например, уникальность, барьеры входа), переставит приоритеты, уберёт лишнее.

На третьем шаге заполнит шаблон под каждый аспект откалиброванного ядра: для "размера аудитории" подтянет данные по подкастам в России, для "монетизации" — модели заработка российских подкастов, для "конкурентов" — похожие проекты. Финальный результат — структурированный анализ: аспект → данные → оценка → что делать дальше.

🧠

Почему это работает

Слабость LLM: При генерации сложных структур модель хорошо понимает общий смысл, но плохо выдерживает точную структуру — делает синтаксические ошибки, путает вложенность, неправильно связывает элементы, создаёт валидные по форме, но семантически некорректные конструкции.

Сильная сторона LLM: Модель отлично извлекает суть — ключевые концепции, их логические связи, основные операции. Ещё одна сильная сторона — заполнение структурированных шаблонов по чётким правилам (если дана структура, модель хорошо подставляет значения).

Как метод использует это: Вместо генерации всей сложной структуры целиком, метод разбивает процесс: LLM сначала извлекает упрощённое ядро (только суть, базовые связи), потом агент калибрует его (проверяет синтаксис, привязывает к данным — одного самого похожего кандидата вместо множества), потом система выбирает готовый шаблон под тип задачи и LLM заполняет его откалиброванным ядром и деталями. Декомпозиция убирает ошибки за счёт того, что на каждом шаге задача проще: extract core (суть без деталей) → calibrate (проверить и исправить) → compose (заполнить шаблон).

Рычаги управления:

  • Что генерировать как ядро: Чем проще ядро, тем меньше ошибок на первом шаге (базовые связи vs детальная логика). Для сложных задач можно попросить несколько вариантов ядра.

  • Критерии калибровки: Можно задать свои правила проверки — синтаксис, полнота, приоритеты, соответствие контексту.

  • Библиотека шаблонов: Накапливай готовые структуры для частых задач (анализ, сравнение, генерация контента) — чем больше шаблонов, тем точнее выбор.

  • Локальная vs глобальная память: Локальная = краткосрочный контекст (диалог, текущая задача), глобальная = долгосрочные знания (шаблоны, успешные паттерны). Можно явно указать "используй как глобальное знание" или "это только для текущего контекста".

  • Глубина рефлексии: После решения задачи можно попросить модель проанализировать "что сработало хорошо" и сохранить как паттерн для будущих задач.

📋

Шаблон промпта

⚠️ Оригинальный метод требует инфраструктуры (графы знаний, S-expressions, API). Ниже — адаптация принципов для работы в чате:

ЭТАП 1: Извлечение ядра

Задача: {описание задачи}

Извлеки ЯДРО решения:
- Ключевые элементы (что нужно для ответа)
- Связи между ними (как они взаимодействуют)
- Основные операции (что с ними делать)

Без деталей. Только структура.

---

ЭТАП 2: Калибровка

Вот ядро: [вставить вывод из Этапа 1]

Проверь и исправь:
1. Синтаксис: правильная ли структура?
2. Полнота: всё ли критичное учтено?
3. Приоритеты: правильный ли порядок?
4. Контекст: соответствует ли {специфике задачи}?

Дай откалиброванную версию.

---

ЭТАП 3: Композиция

Используй откалиброванное ядро.

Тип задачи: {простой вопрос / сравнение / агрегация / анализ / генерация}

Шаблон результата:
{твоя структура вывода — например:
[Аспект 1]: [данные] → [оценка] → [действие]
[Аспект 2]: [данные] → [оценка] → [действие]}

Заполни шаблон для: {конкретные данные задачи}

Что подставлять: - {описание задачи} — твой вопрос или запрос - {специфика задачи} — контекст, ограничения, критерии (например: "для российского рынка", "бюджет до 100к руб", "B2B сегмент") - {тип задачи} — выбери из списка или опиши свой - {твоя структура вывода} — как должен выглядеть финальный ответ - {конкретные данные задачи} — детали: цифры, имена, параметры

🚀 Быстрый старт — вставь в чат:

Вот шаблон трёхэтапной генерации (ядро → калибровка → композиция). 
Адаптируй под мою задачу: [твоя задача]. 

Задавай вопросы, чтобы настроить этапы под мой контекст.

[вставить шаблон выше]

LLM спросит про специфику задачи (контекст, ограничения), предложит структуру ядра, уточнит критерии калибровки, подберёт формат вывода. Она возьмёт паттерн "суть → проверка → детали" и адаптирует под твой запрос.

⚠️

Ограничения

⚠️ Оверхед на простых задачах: Трёхэтапный процесс избыточен для простых вопросов ("столица России?", "переведи текст"). Метод окупается на сложных структурированных задачах — анализ, сравнение, многоаспектная оценка.

⚠️ Требует структурированного источника знаний: Оригинальный метод работает с графами знаний — точно привязывает элементы запроса к базе данных. Адаптация для чата теряет эту точность — модель опирается на внутренние знания, а не на внешнюю структурированную базу.

⚠️ Принцип, не готовая система: В исследовании SEAL — это автоматическая инфраструктура (API, база, агенты). В адаптации — это workflow: ты вручную ведёшь модель через этапы. Можно автоматизировать через API/custom GPT, но из коробки в чате — ручное управление.

⚠️ Эффективность зависит от библиотеки шаблонов: Этап "композиция" работает лучше, если есть готовые шаблоны под типы задач. Без шаблонов — модель может генерировать менее структурированный результат.

🔗

Ресурсы

SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs Hao Wang, Jialun Zhong, Changcheng Wang, Zhujun Nie, Zheng Li, Shunyu Yao, Yanzeng Li, Xinchi Li Institute of Big Data and Artificial Intelligence (China Telecom Research Institute), Wangxuan Institute of Computer Technology (Peking University), School of Artificial Intelligence (China University of Geosciences), Institute of Artificial Intelligence and Future Networks (Beijing Normal University), Center for Cognition and Neuroergonomics (Beijing Normal University)


📋 Дайджест исследования

Ключевая суть

LLM отлично ловят суть вопроса, но проваливаются на точной структуре ответа. В сложных задачах модель понимает что нужно сделать, но генерирует с ошибками — путает вложенность, неправильно связывает элементы, создаёт валидную по форме, но некорректную по смыслу конструкцию. Метод SEAL позволяет генерировать сложные структурированные решения с меньшими ошибками через декомпозицию процесса. Фишка: разбить генерацию на три этапа — извлечь упрощённое ядро (суть без деталей), откалибровать его (проверить и исправить), заполнить готовый шаблон. Каждый шаг проще предыдущего — модель не держит всё в голове, а решает простые задачи последовательно.

Принцип работы

Вместо генерации всей сложной структуры одним промптом — три отдельных этапа. Этап 1: Извлечение ядра — модель выдаёт упрощённую версию решения. Только ключевые элементы, связи, базовые операции. Без деталей и точной структуры. Этап 2: Калибровка — проверка и исправление ядра. Синтаксис правильный? Все критичные аспекты учтены? Приоритеты верные? Исправляется на месте, без переделывания с нуля. Этап 3: Композиция — выбирается готовый шаблон под тип задачи (анализ, сравнение, оценка). Модель заполняет плейсхолдеры шаблона откалиброванным ядром и деталями. Каждый этап решает одну простую задачу — не «придумай идеальный ответ», а «извлеки суть» → «проверь» → «заполни структуру». Как конвейер: каждая станция делает своё, а не всё разом.

Почему работает

LLM сильны в понимании смысла, слабы в точной структуре. Модель отлично извлекает ключевые концепции, логические связи, основные операции. Но при генерации сложной структуры целиком — делает синтаксические ошибки, путает вложенность, создаёт формально корректные, но семантически неправильные конструкции. Декомпозиция играет на сильных сторонах модели. Этап 1 (ядро) — задача простая: «что главное?» без требований к форме. Этап 2 (калибровка) — проверка по чётким критериям, модель хорошо находит ошибки если знает что искать. Этап 3 (композиция) — заполнение готового шаблона, а не создание структуры с нуля. Модель отлично подставляет значения в чёткую форму. Плюс снижение вычислительной сложности. В оригинальном методе это привязка элементов к базе данных — классический подход проверяет множество вариантов (экспоненциальный рост), SEAL выбирает одного лучшего кандидата после калибровки ядра. В адаптации для чата — это означает меньше переделываний, модель не генерирует десятки вариантов, а последовательно улучшает один.

Когда применять

Для сложных структурированных задач → анализ бизнес-идей, многоаспектная оценка, сравнение по критериям, генерация контента с чёткой структурой. Особенно когда нужна переиспользуемость — накапливай шаблоны для частых задач (анализ стартапов, оценка рисков, сравнение продуктов), и процесс ускоряется. НЕ подходит для простых вопросов типа «столица России?» или «переведи текст» — трёхэтапный процесс создаёт оверхед. Метод окупается на задачах где одношаговая генерация даёт ошибки структуры.

Мини-рецепт

1. Извлечь ядро: Попроси модель выдать суть решения без деталей. Ключевые элементы (что нужно), связи между ними (как взаимодействуют), основные операции (что делать). Без структуры, без точности — только логика.

2. Откалибровать: Дай модели ядро из шага 1. Попроси проверить: синтаксис правильный? все критичные аспекты учтены? приоритеты верные? соответствует контексту? Модель исправляет и выдаёт откалиброванную версию.

3. Заполнить шаблон: Определи тип задачи (анализ, сравнение, оценка). Дай модели готовую структуру вывода — например: <шаблон>[Аспект]: [данные] → [оценка] → [действие]. Попроси заполнить откалиброванным ядром и деталями.

Опционально — накапливай шаблоны: После успешного решения попроси модель выделить паттерн: «Что сработало хорошо? Сохрани как шаблон для будущих задач типа X». Создаёшь библиотеку готовых структур.

Примеры

[ПЛОХО] : Оцени идею подкаста про предпринимателей в стиле Тинькова. Проанализируй рынок, монетизацию, конкурентов, риски, уникальность, барьеры входа — модель выдаст длинный текст, но структура поплывёт, аспекты смешаются, часть критериев пропустится.
[ХОРОШО] : Три промпта: 1. Извлеки ЯДРО анализа медиа-идеи (подкаст про предпринимателей): 3-5 ключевых аспектов для проверки. Без деталей, только структуру. 2. Вот ядро: [вставить вывод]. Проверь: все ли критичные аспекты учтены? правильные ли приоритеты для медиа-проекта? Исправь и дай откалиброванную версию. 3. Заполни под каждый аспект откалиброванного ядра: [Аспект]: Данные (цифры, примеры) → Оценка (хорошо/плохо/риск) → Действие (что проверить). Контекст: подкаст про русских предпринимателей, стиль Тинькова, интервью 40-60 мин. Результат — структурированный анализ где каждый аспект раскрыт по единой схеме, ничего не пропущено, приоритеты верные.
Источник: SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs
ArXiv ID: 2512.04868 | Сгенерировано: 2026-01-08 23:34

Методы

МетодСуть
Декомпозиция на ядро калибровку композицию — для сложных структурированных задачЭтап 1: Попроси извлечь ТОЛЬКО суть (ключевые элементы, связи, операции) без деталей. Этап 2: Попроси проверить и исправить ядро (синтаксис, полнота, приоритеты, соответствие контексту). Этап 3: Дай готовый шаблон под тип задачи, попроси заполнить откалиброванным ядром и деталями. Почему работает: каждый шаг проще целостной генерации — extract = только концепции, calibrate = только проверка, compose = только заполнение слотов. Снижает ошибки структуры. Для: анализ, оценка, сравнение, многоаспектные задачи. НЕ для: простые вопросы (оверхед 3 запроса vs 1). Ограничение: это workflow, не one-shot промпт

Тезисы

ТезисКомментарий
LLM лучше понимает суть задачи, чем генерирует точную структуру за один проходМодель хорошо выделяет концепции и логические связи, но точная структура требует множества мелких решений (синтаксис, вложенность, порядок элементов) — вероятность ошибок растёт при целостной генерации. Декомпозиция (суть калибровка детали) убирает ошибки. Применяй: для сложных структурированных задач разбивай на извлечение упрощённого ядра + проверку и исправление + заполнение готового шаблона
📖 Простыми словами

SEAL: двухэтапная генерация через ядро и шаблон

arXiv: 2512.04868

Суть проблемы в том, что когда ты просишь нейронку вытащить данные из сложной базы, она ведет себя как самоуверенный стажер: общую суть уловил, но в деталях накосячил. LLM лажают на синтаксисе, путают скобки и связи, когда пытаются родить сложный запрос целиком. Метод SEAL меняет правила игры: вместо того чтобы заставлять модель писать весь код сразу, он заставляет её сначала вычленить минимальное ядро — голый скелет логики без лишней мишуры.

Это как если бы ты просил архитектора спроектировать небоскреб, а он каждый раз забывал нарисовать лестницы или путал этажи. По методу SEAL мы сначала просим его набросать черновой эскиз на салфетке, где понятна только общая форма. Потом специальный «агент-корректор» проверяет этот набросок на вшивость, исправляет косяки и только после этого накладывает его на готовый шаблон. Формально работа та же, но риск того, что здание рухнет из-за забытой балки, стремится к нулю.

Технически это работает через двухэтапную генерацию. Сначала извлекается core — упрощенная версия запроса, которую агент тут же калибрует, исправляя синтаксис и привязывая термины к реальным данным. На втором этапе система подбирает шаблон под тип вопроса и просто вставляет туда это проверенное ядро. В итоге мы получаем структурную точность, которой у обычных LLM просто нет от природы, потому что они мыслят вероятностями, а не строгой логикой графов.

Хотя исследование проводили на графах знаний и языке SPARQL, этот принцип — универсальный паттерн для любой сложной работы с AI. Его можно и нужно внедрять везде, где нужна идеальная точность: от генерации юридических договоров до написания кода. Разделение логики и оформления позволяет избежать галлюцинаций, когда модель вроде бы говорит по делу, но по факту выдает нерабочую фигню.

Короче, хватит ждать от нейронки, что она выдаст сложный и верный результат за один присест. Используй агентскую калибровку и шаблоны, чтобы превратить хаотичный поток мыслей AI в четкую структуру. Метод SEAL доказывает, что контроль над «ядром» запроса важнее, чем попытки обучить модель всему и сразу. Кто научится дробить задачи на скелет и мясо, тот и получит работающие системы, пока остальные будут бороться с синтаксическими ошибками.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с