3,583 papers
arXiv:2604.11610 72 13 апр. 2026 г. FREE

CluE (Cluster-based Evolution): умная классификация типов памяти перед извлечением

КЛЮЧЕВАЯ СУТЬ
Попросишь AI «выдели главное из разговора» — получишь усреднённую кашу. Модель не знает что тебе важнее: личные факты собеседника, его стратегии или последовательность действий? Один промпт на все случаи — средний результат везде. Метод CluE позволяет вытаскивать нужный тип памяти точно — личное, аналитику и паттерны поведения отдельно, не в одну кучу. Фишка: сначала идентифицируй сценарий, потом применяй правила — три шага вместо одного расплывчатого «выдели главное».
Адаптировать под запрос

TL;DR

Универсального промпта для извлечения памяти не существует. Когда ты просишь AI выделить главное из разговора, качество сильно зависит от того, какой тип информации нужно извлечь: личные предпочтения, шаги решения задачи и стратегии действий — разные категории, которые требуют разных инструкций. Один промпт на все случаи даёт средний результат везде.

Главная находка: подробная таксономия не побеждает простую. Промпт с пятью классами памяти не обыгрывает промпт с двумя чёткими классами. Модель хуже следует сложным инструкциям — чем больше категорий, тем размытее извлечение. Простая классификация + чёткие правила для каждого класса работает лучше.

CluE решает это через «сначала идентифицируй сценарий, потом извлекай»: промпт для извлечения сначала определяет тип контента и его особенности, группирует похожее вместе, анализирует каждую группу отдельно и только тогда применяет подходящие правила. Метод описывает, как строить такой промпт вручную.


🔬

Схема метода

Всё выполняется в одном промпте (или в двух шагах — зависит от объёма):

ШАГ 1: Суммаризация → для каждого фрагмента: какой тип информации + 
        что делает извлечение сложным (длинный контекст? неявное? многошаговое?)

ШАГ 2: Кластеризация → сгруппировать фрагменты по сценарию извлечения, 
        независимо от исходного источника

ШАГ 3: Анализ по кластерам → для каждой группы: что делает память полезной, 
        что упускается, конкретные рекомендации

ШАГ 4: Синтез промпта → общие принципы + per-category guidelines → 
        итоговые правила извлечения

🚀

Пример применения

Задача: Тимур ведёт бизнес-подкаст «Разборы с Тимуром» — 40 эпизодов, каждый по 2-3 часа. Перед интервью с новым гостем хочет вытащить из прошлых разговоров: что уже обсуждали похожие предприниматели, какие ошибки называли, какие советы давали. Нужно не пересказ, а полезная память.

Промпт:

Ты — система извлечения памяти из разговора.

Твоя задача: прочитать текст ниже и извлечь то, что нужно помнить для 
будущих разговоров. Действуй по шагам.

ШАГ 1 — ИДЕНТИФИКАЦИЯ СЦЕНАРИЯ
Определи, что здесь нужно извлечь:
- Это личные факты и предпочтения собеседника? (персонализация)
- Это шаги решения задачи, разбор ошибок, рабочие стратегии? (problem-solving)
- Это последовательность действий и их результаты? (агентные паттерны)
Один фрагмент может относиться к нескольким типам — укажи все.
Также отметь, что делает извлечение сложным: неявные утверждения? длинный контекст? 
многошаговая логика?

ШАГ 2 — ИЗВЛЕЧЕНИЕ ПО ТИПУ
Для каждого идентифицированного типа применяй свои правила:

ПЕРСОНАЛИЗАЦИЯ: извлекай конкретные факты (имена, даты, предпочтения, 
болевые точки). Форматируй как: [Кто] — [что] — [контекст].

PROBLEM-SOLVING: извлекай успешные стратегии, типичные ошибки, 
нестандартные инсайты. Форматируй как: [Ситуация] → [Что сработало / не сработало] → 
[Почему].

АГЕНТНЫЕ ПАТТЕРНЫ: извлекай повторяющиеся последовательности действий, 
развилки решений. Форматируй как: [Контекст] → [Шаги] → [Результат].

ШАГ 3 — ФИНАЛЬНАЯ ПАМЯТЬ
Собери итог: 3-7 пунктов, которые реально пригодятся в следующем разговоре 
на похожую тему. Убери общие места — только специфичное.

Текст для анализа:
{текст разговора или транскрипта}

Результат: Модель сначала покажет диагностику — к какому типу относится материал и что мешает чистому извлечению. Затем структурированные блоки по каждой категории. В финале — 3-7 конкретных пунктов памяти с чёткой атрибуцией: кто сказал, в каком контексте, что именно полезно помнить.


🧠

Почему это работает

Слабость LLM: Когда просишь просто «выдели главное» — модель играет в среднего. Она не знает, что для тебя «главное»: факты о человеке? Его методы? Последовательность действий? Промпт без типизации получает усреднённый ответ, который плохо подходит ни для чего конкретного.

Сильная сторона LLM: Модель хорошо следует чётким инструкциям с разветвлением «если тип X — делай Y». Структурированные правила с форматом вывода дают более точный и воспроизводимый результат, чем открытые инструкции.

Как метод использует это: Явная классификация перед извлечением убирает неоднозначность. Модель не пытается угадать, что важно — она следует разным правилам для разных типов. Это как дать разные бланки для разных задач, вместо одного универсального листка.

Рычаги управления промптом: - Количество типов → упрости до двух (личное + рабочее) для быстрых задач - Формат вывода → убери шаблоны [Кто] — [что] если нужен свободный текст - Финальный лимит (3-7 пунктов) → увеличь для детального разбора, уменьши для быстрого снэпшота - Критерий «сложности» в ШАГ 1 → добавь свой: "неоднозначные факты?", "противоречия с предыдущим?"


📋

Шаблон промпта

Ты — система извлечения памяти из разговора.

ШАГ 1 — ИДЕНТИФИКАЦИЯ СЦЕНАРИЯ
Прочитай {текст} и определи тип информации:
- Личные факты и предпочтения? → тип: ПЕРСОНАЛИЗАЦИЯ
- Решения задач, стратегии, ошибки? → тип: АНАЛИТИКА  
- Последовательности действий и результаты? → тип: ПАТТЕРНЫ
Также: что делает извлечение сложным? 
(неявно, длинный контекст, многошаговая логика, противоречия)

ШАГ 2 — ИЗВЛЕЧЕНИЕ ПО ТИПУ

ПЕРСОНАЛИЗАЦИЯ: конкретные факты. Формат: [Кто] — [что] — [контекст]
АНАЛИТИКА: что сработало / не сработало. Формат: [Ситуация] → [Итог] → [Почему]
ПАТТЕРНЫ: повторяющиеся шаги. Формат: [Условие] → [Шаги] → [Результат]

ШАГ 3 — ФИНАЛЬНАЯ ПАМЯТЬ
{число_пунктов} конкретных пунктов для использования в будущем.
Только специфичное — без общих мест.

Текст:
{текст}

Плейсхолдеры: - {текст} — разговор, транскрипт, история чата, заметки встречи - {число_пунктов} — сколько итоговых пунктов нужно (3-5 для быстро, 7-10 для детально)

Типы можно переименовать под задачу: вместо ПЕРСОНАЛИЗАЦИЯ / АНАЛИТИКА / ПАТТЕРНЫ поставь КЛИЕНТ / РЕШЕНИЕ / ПРОЦЕСС — для рабочих заметок о проектах.


🚀 Быстрый старт — вставь в чат:

Вот шаблон для извлечения памяти из разговора. 
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит: какой тип контента обрабатываешь и что делать с результатом — потому что от этого зависят названия типов и формат вывода в ШАГ 2. Она возьмёт структуру из шаблона и адаптирует категории под твой контекст.


⚠️

Ограничения

⚠️ Простые задачи: Для коротких однотипных текстов (одно интервью, один жанр контента) трёхшаговая классификация избыточна — обычный промпт «выдели главное» справится не хуже.

⚠️ Качество зависит от объёма: Чем короче фрагмент, тем менее точна классификация по типу. Метод раскрывается на длинных, разнородных материалах.

⚠️ Автоматическая эволюция промпта — основная часть CluE — требует автоматизированный пайплайн с тренировочными примерами и оценочными функциями. В обычном чате это не воспроизвести. Применимо только ручное извлечение принципов.

⚠️ Детальная таксономия не гарантирует результат: Если добавить 5-6 типов вместо 2-3, модель начинает хуже следовать инструкциям. Держи классификацию простой.


🔗

Ресурсы

Self-Evolving LLM Memory Extraction Across Heterogeneous Tasks Preprint, under review. Авторы: Yuqing Yang, Tengxiao Liu, Wang Bill Zhu, Taiwei Shi, Linxin Song, Robin Jia University of Southern California, University of California Santa Barbara Код и данные: https://github.com/ayyyq/heterogeneous-memory-extraction


📋 Дайджест исследования

Ключевая суть

Попросишь AI «выдели главное из разговора» — получишь усреднённую кашу. Модель не знает что тебе важнее: личные факты собеседника, его стратегии или последовательность действий? Один промпт на все случаи — средний результат везде. Метод CluE позволяет вытаскивать нужный тип памяти точно — личное, аналитику и паттерны поведения отдельно, не в одну кучу. Фишка: сначала идентифицируй сценарий, потом применяй правила — три шага вместо одного расплывчатого «выдели главное».

Принцип работы

Парадокс в основе метода: кажется, чем подробнее классификация — тем точнее результат. Взял 5 категорий вместо 2 — всё стало хуже. Модель хуже следует сложным инструкциям с разветвлением: чем больше категорий, тем размытее извлечение. Правило простое: не больше 2-3 типов. Каждому типу — свои правила и формат вывода. Модель не угадывает «что важно» — она следует чёткому ветвлению «если тип X — формат Y».

Почему работает

Когда промпт говорит «выдели главное» без классификации — модель играет в среднего. Она не знает твоих критериев важности. Явная классификация перед извлечением убирает эту неоднозначность. LLM хорошо следует инструкциям с ветвлением «если тип X — делай Y», но плывёт на открытых задачах без критериев. Три чётких типа с форматом вывода дают воспроизводимый результат. Один расплывчатый запрос — не даёт ничего конкретного.

Когда применять

Извлечение памяти из разговоров → для длинных и разнородных материалов (интервью, переписки, транскрипты встреч), особенно когда нужно переносить контекст между сессиями или накапливать базу знаний по собеседникам. НЕ подходит для коротких однотипных текстов — там обычное «выдели главное» справится не хуже, а трёхшаговая классификация только замедлит.

Мини-рецепт

1. Задай три типа памяти: ПЕРСОНАЛИЗАЦИЯ (факты о человеке), АНАЛИТИКА (стратегии и ошибки), ПАТТЕРНЫ (последовательности действий). Для рабочих заметок переименуй: КЛИЕНТ / РЕШЕНИЕ / ПРОЦЕСС — суть та же.

2. Идентификацию — первым шагом: попроси модель сначала определить тип фрагмента. И сразу — что мешает чистому извлечению (неявные утверждения? противоречия? многошаговая логика?).

3. Свои правила для каждого типа: ПЕРСОНАЛИЗАЦИЯ → [Кто] — [что] — [контекст], АНАЛИТИКА → [Ситуация] → [Итог] → [Почему], ПАТТЕРНЫ → [Условие] → [Шаги] → [Результат].

4. Ограничь финальный список: 3-5 пунктов для быстрого снимка, 7-10 для детального разбора. Жёсткий лимит убирает воду и общие места.

Примеры

[ПЛОХО] : Выдели главное из этого разговора с клиентом
[ХОРОШО] : Прочитай транскрипт ниже. ШАГ 1: определи тип — личные факты клиента (ПЕРСОНАЛИЗАЦИЯ), его методы и ошибки (АНАЛИТИКА) или повторяющиеся действия (ПАТТЕРНЫ). Один фрагмент может относиться к нескольким типам — укажи все. ШАГ 2: для ПЕРСОНАЛИЗАЦИИ — формат [Кто]—[что]—[контекст], для АНАЛИТИКИ — [Ситуация]→[Итог]→[Почему], для ПАТТЕРНОВ — [Условие]→[Шаги]→[Результат]. ШАГ 3: 5 конкретных пунктов для следующего разговора — только специфичное, без общих мест. Текст: {транскрипт}
Источник: Self-Evolving LLM Memory Extraction Across Heterogeneous Tasks
ArXiv ID: 2604.11610 | Сгенерировано: 2026-04-14 06:28

Проблемы LLM

ПроблемаСутьКак обойти
Обобщённый запрос на «выдели главное» даёт усреднённый результатПросишь модель извлечь главное из текста. Она не знает что для тебя «главное»: факты о человеке? Стратегии решения? Последовательность действий? Без уточнения модель усредняет — немного от всего и ничего конкретно. Работает для любого извлечения: встречи, интервью, переписка, транскриптыСначала явно укажи тип информации — потом давай правила извлечения. Не «выдели главное», а «это разговор про стратегию — извлеки: ситуацию, что сработало, почему»

Методы

МетодСуть
Сначала классифицируй — потом извлекайДобавь перед извлечением шаг типизации. Шаг 1 — тип: Определи что здесь: личные факты? стратегии решений? последовательности действий? Шаг 2 — правила по типу: для каждого типа — свой формат. Пример: ФАКТЫ: [Кто][что][контекст] / СТРАТЕГИИ: [Ситуация] [Итог] [Почему]. Шаг 3 — итог: 3-7 пунктов для использования в будущем. Только специфичное. Почему работает: явная классификация убирает неоднозначность. Модель не угадывает что важно — она следует разным правилам для разных типов. Когда не стоит: короткий однотипный текст — трёхшаговая структура там избыточна
📖 Простыми словами

Self-EvolvingLLMMemory Extraction Across Heterogeneous Tasks

arXiv: 2604.11610

Суть проблемы в том, что у нейросетей нет встроенного фильтра «важности» — для них весь твой текст одинаково серый. Когда ты просишь модель просто «выделить главное», она включает режим усредненного бота и выдает кашу, которая вроде бы про текст, но на деле бесполезна. Проблема на уровне архитектуры: LLM не понимает контекст использования этой памяти, поэтому цепляется за поверхностные факты вместо того, чтобы вытаскивать структурные знания. Один универсальный промпт для извлечения данных — это всегда путь к посредственности.

Это как если бы ты попросил ассистента «запомнить всё важное» со встречи с инвестором, не уточнив, зачем. В итоге он запишет, какой кофе пил босс и что на улице был дождь, но забудет зафиксировать конкретные цифры по долям в бизнесе. Формально он работу выполнил, но по факту принес тебе мусор. Чтобы память работала, нужно заранее задать «сито» с правильным размером ячеек под конкретную задачу, иначе в корзине окажется только песок.

Исследование доказывает: нужно использовать типизацию извлекаемой памяти. Если тебе нужны личные предпочтения клиента — это один метод, если алгоритм решения задачи — другой, если стратегия поведения — третий. Работает только дифференцированный подход: сначала определяем категорию знаний, а потом применяем под нее заточенную инструкцию. В цифрах это выглядит жестко: специализированные промпты под конкретные типы задач на голову разбивают «универсальные» решения, которые просто лажают в 40% случаев, теряя критические детали.

Принцип универсален и применим везде, где есть огромные массивы данных. Будь то 40 эпизодов подкаста по три часа каждый или гора логов техподдержки — нельзя просто скормить это модели с просьбой «сделай саммари». Нужно заставлять AI искать конкретные паттерны: ошибки предпринимателей, повторяющиеся баги или специфические советы. SEO для памяти не работает, здесь нужно жесткое проектирование структуры извлечения под каждый тип контента.

Короче: хватит верить в «магический промпт», который поймет тебя с полуслова. Если хочешь, чтобы нейронка реально что-то помнила и помогала в делах, сначала раздели информацию по категориям и пропиши правила для каждой. Либо ты тратишь время на настройку этих фильтров, либо получаешь на выходе бесполезную простыню текста, в которой черт ногу сломит. Кто научится вытаскивать структурированную память, тот и построит нормальных цифровых помощников, остальные так и будут читать пересказы про «вкусный кофе».

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с