3,583 papers
arXiv:2604.06550 79 8 апр. 2026 г. FREE

SSD (Structured Semantic Decomposition): четыре узких вопроса вместо одного широкого

КЛЮЧЕВАЯ СУТЬ
Попросишь модель «проверь на риски» — она смотрит на заявленную цель. Если та звучит разумно, отвечает «выглядит нормально». Именно это и зафиксировало исследование: широкий вопрос «это вредоносно?» пропускал угрозы, которые декомпозиция обнаруживала. SSD позволяет вытащить из модели структурированный разбор сложного объекта — договора, предложения, стратегии — через несколько независимых блоков вместо одного размытого вывода. Фишка: каждому измерению — свой узкий вопрос, свой блок анализа. Модель знает, что её спрашивают только про внутренние противоречия — и ищет только их. Нет соблазна сказать «в целом нормально».
Адаптировать под запрос

TL;DR

SSD — техника анализа, которая разбивает один широкий вопрос «оцени это» на несколько независимых под-задач, каждая со своим конкретным фокусом. Каждой под-задаче — свой промпт, свой угол зрения, свой отдельный анализ.

Когда просишь модель «проверь эту идею» или «есть ли здесь риски» — она смотрит на заявленную цель и, если та звучит разумно, склоняется к одобрению. Это как нанять одного человека и попросить его оценить и финансы, и юридику, и операционку сразу: он глянет по верхам и скажет «выглядит нормально». Детали, очевидные профильному специалисту — проскочат мимо. В исследовании именно так и произошло: один широкий вопрос «это вредоносно?» пропускал угрозы, которые декомпозиция обнаруживала.

SSD решает проблему разбивкой на измерения. В оригинале: (1) совпадает ли заявленная цель с фактическими действиями, (2) оправданы ли запрашиваемые ресурсы, (3) нет ли скрытых инструкций, (4) согласованы ли разные части между собой. Каждое измерение — отдельный запрос, отдельный анализ без смешивания.


🔬

Схема метода

ШАГ 1: Определи 3-4 измерения под свою задачу
        → список фокусов с конкретными вопросами

ШАГ 2: Для каждого измерения — отдельный анализ
        → можно в одном промпте (параллельно) 
           или в нескольких запросах подряд

ШАГ 3: Агрегируй все ответы → итоговый вывод

Все шаги работают в одном запросе — достаточно явно выделить измерения в тексте промпта.


🚀

Пример применения

Задача: Агентство прислало КП на SMM-продвижение за 150 000 ₽/мес. Надо понять — адекватно это или нет.

Промпт:

Оцени это коммерческое предложение по четырём независимым измерениям.
По каждому — отдельный блок анализа. Не смешивай их.

[вставить текст КП]

---

Измерение 1 — СООТВЕТСТВИЕ ЗАЯВЛЕННОГО И РЕАЛЬНОГО
Что агентство обещает в результате? Что фактически входит в работы?
Есть ли расхождение между обещанным эффектом и описанной деятельностью?

Измерение 2 — ОБОСНОВАННОСТЬ СТОИМОСТИ
Оправдана ли цена 150 000 ₽/мес для задач этого масштаба?
Какие работы входят в прайс, что сопоставимо по рынку?

Измерение 3 — СКРЫТЫЕ РИСКИ
Есть ли размытые формулировки, позволяющие не выполнять обещания?
Какие пункты выгодны агентству, но не клиенту?

Измерение 4 — ВНУТРЕННЯЯ СОГЛАСОВАННОСТЬ
Соответствуют ли предложенные инструменты заявленным результатам?
Есть ли противоречия внутри документа?

---

После анализа по каждому измерению — итоговый вывод: брать или нет, и почему.

Результат: Модель выдаст четыре отдельных блока. Там, где широкая просьба «оцени КП» дала бы общее «выглядит неплохо» — декомпозиция вскроет детали: в измерении 1 — что обещают результат, но описывают только процесс; в измерении 3 — что нет конкретных KPI и агентство ничем не рискует. Итоговый вывод будет опираться на все четыре блока с конкретными цитатами.


🧠

Почему это работает

LLM хорошо справляется с узкой конкретной задачей. Плохо — когда нужно удержать одновременно много критериев и не упустить ни один. При широком вопросе модель формирует общее впечатление: если поверхностно всё выглядит логично — она склоняется к позитивной оценке. Именно это показало исследование: один монолитный вопрос принимал вредоносные пакеты как «разумные инструменты», потому что описание выглядело убедительно.

Когда модель знает, что её спрашивают только про внутренние противоречия — она ищет только их. Нет соблазна сказать «в целом нормально». Узкий фокус снижает шанс пропустить что-то важное. Это не «думать лучше», это убрать отвлекающие факторы.

Ещё эффект: декомпозиция делает анализ проверяемым. Четыре блока вместо одного — видно, где именно модель нашла проблему, а где не нашла. С монолитным ответом непонятно, смотрела ли она на нужный угол вообще.

Рычаги управления: - Число измерений → 2-3 для простых задач, 4-5 для сложных. Больше измерений = глубже, но дольше и дороже по токенам - Формулировка вопроса в каждом блоке → чем конкретнее, тем острее. «Есть ли риски?» слабее, чем «какие формулировки позволяют агентству не выполнять KPI?» - Параллельно или последовательно → всё в одном промпте — быстро; каждое измерение в отдельном запросе — больше пространства для анализа каждого блока - Веса измерений → в конце промпта можно явно указать, какое измерение важнее: «Измерение 3 (риски) считай приоритетным»


📋

Шаблон промпта

Оцени {объект_анализа} по {число} независимым измерениям.
По каждому — отдельный блок анализа. Не смешивай их между собой.

{объект_анализа}:
[вставить текст / описание]

---

Измерение 1 — {НАЗВАНИЕ_1}
{Конкретный узкий вопрос только про это измерение}

Измерение 2 — {НАЗВАНИЕ_2}
{Конкретный узкий вопрос только про это измерение}

Измерение 3 — {НАЗВАНИЕ_3}
{Конкретный узкий вопрос только про это измерение}

Измерение 4 — {НАЗВАНИЕ_4}
{Конкретный узкий вопрос только про это измерение}

---

После анализа по каждому измерению — итоговый вывод: {что хочешь решить}.

Что подставлять: - {объект_анализа} — что оцениваем: КП, бизнес-идея, договор, стратегия, текст - {число} — сколько измерений: 3-4 для большинства задач - {НАЗВАНИЕ_X} — короткое имя измерения: РИСКИ, СОГЛАСОВАННОСТЬ, ОБОСНОВАННОСТЬ, СООТВЕТСТВИЕ - {Конкретный вопрос} — узкий вопрос именно по этому измерению, не широкий - Последняя строка — что хочешь получить: взять/не взять, одобрить/отклонить, список рисков


🚀 Быстрый старт — вставь в чат:

Вот шаблон SSD для структурированной оценки. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит, что именно анализировать и какие стороны важны — потому что без этого нельзя сформулировать точные вопросы внутри каждого блока. Она возьмёт структуру декомпозиции из шаблона и адаптирует под твою задачу.


⚠️

Ограничения

⚠️ Простые задачи: Если вопрос однозначный — декомпозиция избыточна. Метод окупается там, где объект сложный и есть несколько аспектов оценки.

⚠️ Качество измерений: Метод работает ровно настолько, насколько верно выбраны сами углы анализа. Неправильные измерения — декомпозиция не поможет.

⚠️ Субъективные оценки: Для задач типа «мне понравится?» или «это красиво?» — измерения получатся размытыми, эффект слабее. Лучше работает на объектах с проверяемыми характеристиками: документы, предложения, планы.

⚠️ Оригинальный контекст: Исследование создавалось для проверки безопасности AI-расширений. Четыре авторских измерения (соответствие намерений, оправданность разрешений, скрытые действия, согласованность файлов) — доменно-специфичны. Для других задач измерения нужно переформулировать.


🔗

Ресурсы

SkillSieve: A Hierarchical Triage Framework for Detecting Malicious AI Agent Skills Yinghan Hou (Department of Earth Science and Engineering, Imperial College London), Zongyou Yang (Department of Computer Science, University College London) Связанные проекты: OpenClaw/ClawHub marketplace, ClawVet, SkillFortify, Snyk ToxicSkills


📋 Дайджест исследования

Ключевая суть

Попросишь модель «проверь на риски» — она смотрит на заявленную цель. Если та звучит разумно, отвечает «выглядит нормально». Именно это и зафиксировало исследование: широкий вопрос «это вредоносно?» пропускал угрозы, которые декомпозиция обнаруживала. SSD позволяет вытащить из модели структурированный разбор сложного объекта — договора, предложения, стратегии — через несколько независимых блоков вместо одного размытого вывода. Фишка: каждому измерению — свой узкий вопрос, свой блок анализа. Модель знает, что её спрашивают только про внутренние противоречия — и ищет только их. Нет соблазна сказать «в целом нормально».

Принцип работы

LLM формирует общее впечатление. Если поверхностно всё логично — склоняется к одобрению. Это как нанять одного аналитика оценить и финансы, и юридику, и операционку одним взглядом: он скажет «нормально», потому что деталей не видно с высоты. Декомпозиция нанимает четырёх специалистов — каждый отвечает только за своё. Авторские четыре измерения: (1) совпадает ли заявленная цель с фактическими действиями, (2) оправданы ли запрашиваемые ресурсы, (3) нет ли скрытых инструкций, (4) согласованы ли части между собой. Для других задач те же слоты — другие вопросы.

Почему работает

Узкий фокус убирает отвлекающие факторы. Когда у модели одна задача — «ищи только скрытые инструкции» — нет пространства для «в целом выглядит неплохо». Широкий вопрос предлагает модели выбрать, на что смотреть. Она выбирает поверхность — там проще найти общую связность. Ещё бонус: четыре блока делают анализ проверяемым — видно где именно модель нашла проблему, а где промолчала. С монолитным ответом вообще непонятно, смотрела ли она на нужный угол.

Когда применять

Документы и предложения → для оценки договоров, коммерческих предложений, бизнес-идей, стратегий — особенно когда объект сложный и нужно не пропустить конкретный риск, а не получить общее впечатление. НЕ подходит: простые однозначные вопросы (декомпозиция избыточна) и субъективные оценки типа «мне понравится?» — там измерения получатся размытыми и модель всё равно поплывёт.

Мини-рецепт

1. Определи объект: что оцениваешь — договор, коммерческое предложение, стратегию, идею.
2. Выбери 3-4 измерения под задачу. Стартовые четыре: СООТВЕТСТВИЕ (что обещают vs что реально делают), ОБОСНОВАННОСТЬ (оправдана ли цена/ресурсы), РИСКИ (какие формулировки позволяют не выполнять обязательства), СОГЛАСОВАННОСТЬ (не противоречат ли части друг другу).
3. Под каждое измерение — узкий вопрос. Не «есть ли риски?», а «какие именно формулировки позволяют стороне уйти от ответственности за результат?». Чем конкретнее вопрос — тем острее анализ.
4. Добавь финальный блок: итоговый вывод на основе всех измерений — взять/не взять, одобрить/отклонить, список приоритетных рисков.

Примеры

[ПЛОХО] : Оцени это коммерческое предложение — стоит ли брать агентство?
[ХОРОШО] : Оцени КП по 4 независимым измерениям. По каждому — отдельный блок, не смешивай. [текст КП] Измерение 1 — СООТВЕТСТВИЕ: что агентство обещает в результате и что фактически входит в работы? Есть ли разрыв между обещанным эффектом и описанной деятельностью? Измерение 2 — ОБОСНОВАННОСТЬ: оправдана ли цена 150 000 ₽ в месяц для задач этого масштаба? Измерение 3 — РИСКИ: какие формулировки позволяют агентству не выполнять обещания? Что выгодно им, но не клиенту? Измерение 4 — СОГЛАСОВАННОСТЬ: соответствуют ли предложенные инструменты заявленным результатам? Есть ли внутренние противоречия? После анализа — итог: брать или нет, и почему.
Источник: SkillSieve: A Hierarchical Triage Framework for Detecting Malicious AI Agent Skills
ArXiv ID: 2604.06550 | Сгенерировано: 2026-04-09 04:37

Проблемы LLM

ПроблемаСутьКак обойти
Широкий вопрос про оценку поверхностный ответПросишь "проверь это" или "найди риски". Модель смотрит на заявленную цель. Если та выглядит разумно — говорит "в целом нормально". Детали, которые разрушили бы оценку при внимательном взгляде, проскакивают мимо. Проблема для любой экспертизы: КП, договоры, планы, идеиРаздели один широкий вопрос на 3–4 узких. Каждый смотрит на свой угол. Дай каждому отдельный блок в запросе. Не смешивай их между собой

Методы

МетодСуть
Разбивка оценки на измерения — вместо одного вопроса несколько узкихОпредели 3–4 измерения под свою задачу. Для каждого напиши конкретный узкий вопрос. Оформи каждое в отдельный блок в одном запросе. В конце попроси итоговый вывод на основе всех блоков. Шаблон: Оцени [объект] по [N] независимым измерениям. По каждому — отдельный блок анализа. Не смешивай их. / Измерение 1 — НАЗВАНИЕ / [узкий вопрос только про это] / ... / После анализа — итоговый вывод: [что решаешь]. Универсальный набор для старта: (1) совпадает ли заявленное с фактическим, (2) оправданы ли запрашиваемые ресурсы или цена, (3) есть ли размытые формулировки и скрытые риски, (4) нет ли внутренних противоречий. Когда применять: сложный объект с несколькими аспектами — документ, предложение, стратегия, план. Когда не применять: простой однозначный вопрос — декомпозиция избыточна

Тезисы

ТезисКомментарий
Узкий фокус убирает эффект "в целом выглядит нормально"При широком вопросе модель строит общее впечатление. Если поверхность выглядит убедительно — склоняется к одобрению. При узком вопросе ("какие формулировки позволяют не выполнять KPI?") нет соблазна сказать "ну в целом ок". Модель ищет конкретное. Это не "думать лучше" — это убрать отвлекающие факторы. Применяй: вместо "есть ли риски?" пиши "какие пункты выгодны исполнителю, но не тебе?"
📖 Простыми словами

SkillSieve: A Hierarchical Triage Framework for Detecting MaliciousAIAgentSkills

arXiv: 2604.06550

Суть проблемы в том, что современные AI-агенты — это доверчивые исполнители, которые легко заглатывают наживку, если она красиво упакована. Когда ты просишь модель оценить что-то целиком, она ведет себя как ленивый охранник: видит опрятный костюм, уверенную походку и пропускает шпиона на секретный объект. Исследователи выяснили, что один широкий вопрос «безопасно ли это?» заставляет нейронку смотреть на общую картинку, игнорируя критические детали. В итоге вредоносный код или опасный навык агента проходит проверку просто потому, что его описание выглядело «разумно».

Это как если бы ты нанимал няню и просто спросил соседа: «Ну как она?». Сосед ответит, что она вежливая и вкусно готовит, но упустит тот факт, что она оставляет детей одних и курит на кухне. Чтобы не облажаться, тебе нужно не общее мнение, а жесткий чек-лист: отдельно проверить документы, отдельно — навыки первой помощи, отдельно — отзывы с прошлого места. Метод SkillSieve делает ровно это: он превращает один рыхлый вопрос в серию независимых допросов, где каждый эксперт ищет конкретный косяк.

В основе лежит техника SSD — иерархическая фильтрация, которая дробит анализ на атомы. Вместо того чтобы гадать «адекватно ли это КП», система запускает несколько разных промптов: один проверяет только техническую реализуемость, другой — безопасность данных, третий — адекватность цены рынку. Каждая под-задача имеет свой узкий фокус и свой отдельный контекст. Когда модель заставляют смотреть в упор на одну деталь, ей гораздо сложнее проглядеть лажу, которую она бы пропустила при беглом осмотре всего документа.

Хотя метод тестировали на выявлении вредоносных навыков у AI-агентов, этот принцип — универсальное оружие против галлюцинаций и невнимательности нейронок. Его можно и нужно внедрять везде: от проверки юридических договоров до анализа маркетинговых стратегий. Если задача сложнее, чем «напиши пост про котиков», монолитный промпт — это гарантированный провал. Нужно разделять и властвовать, заставляя AI работать как конвейер узкопрофильных специалистов, а не как один мастер на все руки, который везде понемногу лажает.

Главный вывод прост: хочешь качественный результат от AI — забудь про широкие вопросы. Дроби задачу на независимые слои, где каждый следующий этап перепроверяет предыдущий под другим углом. Исследование доказало, что такая иерархия вылавливает угрозы и ошибки, которые «умная» модель в упор не видит при обычном подходе. Либо ты тратишь время на настройку SkillSieve, либо потом тратишь деньги на исправление того, что твой «умный» агент случайно наворотил.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с