3,583 papers
arXiv:2510.14537 65 16 окт. 2025 г. FREE

JSPLIT – иерархическая фильтрация контекста против prompt bloating

КЛЮЧЕВАЯ СУТЬ
Парадокс: Предоставление LLM «всей доступной информации» снижает точность на 20-40% по сравнению с подачей только релевантных данных. Метод JSPLIT позволяет превратить хаос из сотен API/инструментов в структурированную таксономию и динамически подавать модели только нужный «срез» контекста. Система работает как умный библиотекарь: сначала классифицирует запрос по каталогу, потом приносит модели только книги с нужной полки — вместо всей библиотеки сразу. Результат: на порядок меньше токенов, выше точность выбора инструментов.
Адаптировать под запрос
📌

Ключевые аспекты исследования:

Исследование решает проблему "раздувания промпта" (prompt bloating), когда LLM-агенту предоставляется слишком много описаний внешних инструментов (API), что снижает его точность и увеличивает затраты. Авторы предлагают систему JSPLIT, которая организует все инструменты в иерархическую таксономию (похоже на каталог в библиотеке) и, исходя из запроса пользователя, динамически выбирает и передает в контекст LLM только наиболее релевантную группу инструментов.

Ключевой результат: Предварительная фильтрация контекста (инструментов) с помощью таксономии не только на порядки снижает стоимость запросов, но и повышает точность выбора правильного инструмента, особенно когда их общее число велико.


🔬

Объяснение всей сути метода:

Представьте, что LLM — это очень способный, но немного рассеянный ассистент, а инструменты — это книги в огромной библиотеке. Если вы дадите ему задачу и скажете: "Используй любую книгу из этой библиотеки", он может растеряться, начать читать не те книги и в итоге запутаться. Это и есть "раздувание промпта".

Метод JSPLIT работает как умный библиотекарь. Когда вы даете задачу, он не ведет ассистента ко всей библиотеке. Вместо этого он: 1. Смотрит на ваш запрос (например, "спланируй мне отпуск в Италии"). 2. Обращается к каталогу библиотеки (таксономии), где все книги рассортированы по темам ("География", "Финансы", "Развлечения"). 3. Находит нужный раздел ("Путешествия -> Европа -> Италия"). 4. Приносит ассистенту (LLM) только книги с этой полки (инструменты для бронирования билетов, отелей, поиска достопримечательностей).

В результате ассистент не отвлекается на книги по квантовой физике или садоводству. Он работает с небольшим, релевантным набором инструментов, что делает его работу быстрее, дешевле и точнее.

Для обычного пользователя это означает, что нельзя сваливать в LLM всю имеющуюся информацию в надежде, что она сама разберется. Вместо этого нужно самому выступить в роли "умного библиотекаря" для своего запроса: сначала определить, какая именно информация нужна для задачи, а затем предоставить модели только этот отфильтрованный и структурированный набор данных.


📌

Анализ практической применимости:

  • Прямая применимость: Нулевая. Пользователь в интерфейсе ChatGPT или Claude не может развернуть систему JSPLIT, создать таксономию инструментов и управлять контекстом на уровне протокола. Это чисто инженерное решение.

  • Концептуальная ценность: Очень высокая. Исследование дает пользователю критически важную "ментальную модель": контекстное окно LLM — это не бездонный ящик, а рабочее пространство с ограниченным "вниманием". Засорение этого пространства нерелевантной информацией активно вредит результату. Это объясняет, почему короткие, сфокусированные промпты часто работают лучше, чем длинные и перегруженные деталями.

  • Потенциал для адаптации: Высокий. Пользователь может имитировать логику JSPLIT вручную с помощью двухэтапных промптов.

    1. Этап 1 (Классификация): Сначала дать модели краткое описание задачи и перечень доступных "источников информации" (документов, данных). Попросить модель определить, какие из этих источников наиболее важны для решения.
    2. Этап 2 (Исполнение): В новом промпте (или в продолжении диалога) предоставить модели только тот контент, который она сама определила как релевантный на первом этапе, и попросить выполнить основную задачу. Этот подход превращает пользователя из простого "заказчика" в "менеджера" внимания LLM.

🚀

Практически пример применения:

Представим, что маркетолог хочет составить контент-план для нового продукта. У него есть много внутренних документов. Вместо того чтобы копировать их все в чат, он может применить адаптированный метод JSPLIT.

Ты — опытный маркетолог-стратег. Твоя задача — помочь мне создать первоначальный набросок контент-плана для запуска нашего нового продукта: "умного" кофейника "AromaMax".

**Контекст:**
У меня есть несколько внутренних документов с информацией. Вот их краткое описание:

1.  `[PRODUCT_SPECS]` — Технические характеристики, функции и преимущества "AromaMax".
2.  `[BRAND_GUIDELINES]` — Гайдлайны по стилю общения, визуалу и ценностям нашего бренда.
3.  `[TARGET_AUDIENCE]` — Подробное описание целевой аудитории: демография, интересы, боли и потребности.
4.  `[COMPETITOR_ANALYSIS]` — Анализ контент-стратегий основных конкурентов.
5.  `[PAST_CAMPAIGNS]` — Отчеты об эффективности прошлых запусков других продуктов.

**Твоя задача (Шаг 1):**
Прежде чем мы начнем, проанализируй список документов выше. Подумай шаг за шагом и определи, какие **2-3 документа** из этого списка являются **самыми критичными** для создания *первого черновика* контент-плана.

Обоснуй свой выбор. Не нужно генерировать сам план, только выбери самые важные источники информации.
🧠

Почему это работает:

Этот промпт работает, потому что он имитирует основной принцип JSPLIT — фильтрацию контекста перед основной работой.

  1. Предотвращение "раздувания промпта": Вместо того чтобы сразу загружать в модель десятки страниц текста из всех документов, мы даем ей только "метаданные" — краткие описания. Это экономит токены и не перегружает "внимание" модели.
  2. Принудительная фокусировка: Инструкция Подумай шаг за шагом и определи, какие 2-3 документа... являются самыми критичными заставляет модель выполнить задачу классификации и ранжирования релевантности. Это аналог того, как JSPLIT выбирает категорию в таксономии.
  3. Управляемый диалог: Промпт превращает монолог пользователя ("вот тебе все, сделай хорошо") в диалог, где модель сначала запрашивает нужные данные. Это позволяет пользователю на следующем шаге предоставить только самую ценную информацию, что повышает шансы на получение качественного и сфокусированного результата.

📌

Другой пример практического применения

Студент пишет курсовую работу по теме "Влияние социальных сетей на ментальное здоровье подростков" и собрал много источников.

Ты — научный руководитель и эксперт в области психологии и социологии. Помоги мне структурировать работу над курсовой.

**Тема курсовой:** "Влияние социальных сетей на ментальное здоровье подростков".

**Мои источники:**
У меня есть подборка материалов. Вот их типы:

1.  `[ACADEMIC_PAPERS]` — Несколько научных статей из журналов по психологии (2018-2023 гг.).
2.  `[STAT_REPORTS]` — Статистические отчеты от WHO и UNICEF о распространенности депрессии среди молодежи.
3.  `[NEWS_ARTICLES]` — Популярные статьи из СМИ (The Guardian, NYT) о скандалах, связанных с соцсетями.
4.  `[BOOK_CHAPTERS]` — Главы из учебников по возрастной психологии.
5.  `[FORUM_DISCUSSIONS]` — Анонимные обсуждения с форумов Reddit, где подростки делятся своим опытом.

**Твоя задача (Шаг 1):**
Мне нужно написать **введение и первую главу (теоретическую основу)**.

Исходя из этой цели, проанализируй мои источники. Какие **две категории** материалов мне следует изучить в первую очередь? Расположи их по приоритету и объясни, почему именно они важны для начала работы.
🧠

Объяснение механизма почему этот пример работает.

Этот промпт эффективен, так как он применяет ту же логику управляемой фильтрации контекста, что и JSPLIT, но в академической сфере.

  1. Декомпозиция задачи: Студент не просит "написать курсовую", а сужает задачу до конкретного этапа: "введение и первая глава". Это уже помогает модели сфокусироваться.
  2. Создание "Таксономии" источников: Список [ACADEMIC_PAPERS], [STAT_REPORTS] и т.д. — это аналог таксономии из исследования. Он структурирует хаотичный набор информации в понятные для модели категории.
  3. Активный выбор релевантности: Промпт заставляет модель не просто пассивно принять все данные, а активно выбрать наиболее релевантные "инструменты" (источники) для конкретного подзадачи. Для теоретической главы научные статьи и главы учебников ([ACADEMIC_PAPERS], [BOOK_CHAPTERS]) важнее, чем обсуждения на форумах. Модель, сделав этот выбор, на следующем шаге будет ожидать именно эту информацию, что повысит качество ее анализа и синтеза.
📌

Оценка полезности: 65

📌

Основные критерии оценки

  • A. Релевантность техникам промтинга: Низкая. Исследование описывает архитектуру системы (агента), а не техники формулирования промптов для пользователя.
  • B. Улучшение качества диалоговых ответов: Косвенное. Улучшает выбор правильного инструмента агентом, что в итоге приводит к более качественному результату, но не через изменение диалоговой тактики пользователя.
  • C. Прямая практическая применимость: Очень низкая. Пользователь не может реализовать фреймворк JSPLIT или управлять протоколом MCP в обычном чат-боте. Это решение для разработчиков LLM-агентов.
  • D. Концептуальная ценность: Высокая. Исследование наглядно демонстрирует проблему "раздувания промпта" (prompt bloating) и доказывает, что предоставление LLM избыточной, даже потенциально релевантной информации, снижает ее производительность. Это ключевой инсайт для любого пользователя.
  • E. Новая полезная практика (кластеры): Работа попадает в кластеры #2 (Поведенческие закономерности LLM), #6 (Контекст и память) и #7 (Надежность и стабильность). Она раскрывает, как избыток контекста (в данном случае, описаний инструментов) вредит точности, и предлагает системный подход к фильтрации контекста для повышения надежности.
  • Чек-лист практичности (+15 баллов): Да, исследование раскрывает неочевидные особенности поведения LLM. Оно количественно доказывает, что при увеличении количества доступных инструментов (контекста) точность модели падает ("эффект стога сена"). Этот вывод напрямую влияет на то, как пользователь должен подавать информацию в промпт.
📌

Цифровая оценка полезности

Аргументы за оценку 65: Оценка отражает баланс между очень низкой прямой применимостью и очень высокой концептуальной ценностью. Пользователь не может "использовать JSPLIT", но он может и должен усвоить главный вывод: "меньше, но по делу" часто лучше, чем "все сразу". Понимание феномена "prompt bloating" и того, что LLM "теряется" в избыточном контексте, — это фундаментальное знание для промпт-инженера любого уровня. Оно меняет подход к работе со сложными задачами, заставляя пользователя сначала думать о фильтрации и структурировании информации, а уже потом передавать ее модели. Баллы добавлены за то, что эту концепцию можно адаптировать для повседневного использования через двухэтапные промпты.

Контраргументы: * Почему оценка могла быть ниже (например, 40-50): Исследование глубоко техническое, сфокусировано на специфической архитектуре (LLM-агенты, MCP протокол), которая недоступна 99% пользователей. Прямой пользы в виде готовых фраз или структур для промпта — ноль. Чтобы извлечь пользу, нужно абстрагироваться от технической реализации и уловить общую идею, что для "обычного пользователя" может быть сложно. * Почему оценка могла быть выше (например, 75-80): Концепция "prompt bloating" настолько важна, что одно только ее понимание может кардинально улучшить результаты пользователя в сложных задачах. Если пользователь поймет, что нельзя просто "скормить" модели 100 страниц текста и ожидать идеального ответа, он начнет применять стратегии декомпозиции и фильтрации контекста, что является продвинутой и очень эффективной практикой промпт-инжиниринга.


Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с