TL;DR
Универсального промпта для извлечения памяти не существует. Когда ты просишь AI выделить главное из разговора, качество сильно зависит от того, какой тип информации нужно извлечь: личные предпочтения, шаги решения задачи и стратегии действий — разные категории, которые требуют разных инструкций. Один промпт на все случаи даёт средний результат везде.
Главная находка: подробная таксономия не побеждает простую. Промпт с пятью классами памяти не обыгрывает промпт с двумя чёткими классами. Модель хуже следует сложным инструкциям — чем больше категорий, тем размытее извлечение. Простая классификация + чёткие правила для каждого класса работает лучше.
CluE решает это через «сначала идентифицируй сценарий, потом извлекай»: промпт для извлечения сначала определяет тип контента и его особенности, группирует похожее вместе, анализирует каждую группу отдельно и только тогда применяет подходящие правила. Метод описывает, как строить такой промпт вручную.
Схема метода
Всё выполняется в одном промпте (или в двух шагах — зависит от объёма):
ШАГ 1: Суммаризация → для каждого фрагмента: какой тип информации +
что делает извлечение сложным (длинный контекст? неявное? многошаговое?)
ШАГ 2: Кластеризация → сгруппировать фрагменты по сценарию извлечения,
независимо от исходного источника
ШАГ 3: Анализ по кластерам → для каждой группы: что делает память полезной,
что упускается, конкретные рекомендации
ШАГ 4: Синтез промпта → общие принципы + per-category guidelines →
итоговые правила извлечения
Пример применения
Задача: Тимур ведёт бизнес-подкаст «Разборы с Тимуром» — 40 эпизодов, каждый по 2-3 часа. Перед интервью с новым гостем хочет вытащить из прошлых разговоров: что уже обсуждали похожие предприниматели, какие ошибки называли, какие советы давали. Нужно не пересказ, а полезная память.
Промпт:
Ты — система извлечения памяти из разговора.
Твоя задача: прочитать текст ниже и извлечь то, что нужно помнить для
будущих разговоров. Действуй по шагам.
ШАГ 1 — ИДЕНТИФИКАЦИЯ СЦЕНАРИЯ
Определи, что здесь нужно извлечь:
- Это личные факты и предпочтения собеседника? (персонализация)
- Это шаги решения задачи, разбор ошибок, рабочие стратегии? (problem-solving)
- Это последовательность действий и их результаты? (агентные паттерны)
Один фрагмент может относиться к нескольким типам — укажи все.
Также отметь, что делает извлечение сложным: неявные утверждения? длинный контекст?
многошаговая логика?
ШАГ 2 — ИЗВЛЕЧЕНИЕ ПО ТИПУ
Для каждого идентифицированного типа применяй свои правила:
ПЕРСОНАЛИЗАЦИЯ: извлекай конкретные факты (имена, даты, предпочтения,
болевые точки). Форматируй как: [Кто] — [что] — [контекст].
PROBLEM-SOLVING: извлекай успешные стратегии, типичные ошибки,
нестандартные инсайты. Форматируй как: [Ситуация] → [Что сработало / не сработало] →
[Почему].
АГЕНТНЫЕ ПАТТЕРНЫ: извлекай повторяющиеся последовательности действий,
развилки решений. Форматируй как: [Контекст] → [Шаги] → [Результат].
ШАГ 3 — ФИНАЛЬНАЯ ПАМЯТЬ
Собери итог: 3-7 пунктов, которые реально пригодятся в следующем разговоре
на похожую тему. Убери общие места — только специфичное.
Текст для анализа:
{текст разговора или транскрипта}
Результат: Модель сначала покажет диагностику — к какому типу относится материал и что мешает чистому извлечению. Затем структурированные блоки по каждой категории. В финале — 3-7 конкретных пунктов памяти с чёткой атрибуцией: кто сказал, в каком контексте, что именно полезно помнить.
Почему это работает
Слабость LLM: Когда просишь просто «выдели главное» — модель играет в среднего. Она не знает, что для тебя «главное»: факты о человеке? Его методы? Последовательность действий? Промпт без типизации получает усреднённый ответ, который плохо подходит ни для чего конкретного.
Сильная сторона LLM: Модель хорошо следует чётким инструкциям с разветвлением «если тип X — делай Y». Структурированные правила с форматом вывода дают более точный и воспроизводимый результат, чем открытые инструкции.
Как метод использует это: Явная классификация перед извлечением убирает неоднозначность. Модель не пытается угадать, что важно — она следует разным правилам для разных типов. Это как дать разные бланки для разных задач, вместо одного универсального листка.
Рычаги управления промптом:
- Количество типов → упрости до двух (личное + рабочее) для быстрых задач
- Формат вывода → убери шаблоны [Кто] — [что] если нужен свободный текст
- Финальный лимит (3-7 пунктов) → увеличь для детального разбора, уменьши для быстрого снэпшота
- Критерий «сложности» в ШАГ 1 → добавь свой: "неоднозначные факты?", "противоречия с предыдущим?"
Шаблон промпта
Ты — система извлечения памяти из разговора.
ШАГ 1 — ИДЕНТИФИКАЦИЯ СЦЕНАРИЯ
Прочитай {текст} и определи тип информации:
- Личные факты и предпочтения? → тип: ПЕРСОНАЛИЗАЦИЯ
- Решения задач, стратегии, ошибки? → тип: АНАЛИТИКА
- Последовательности действий и результаты? → тип: ПАТТЕРНЫ
Также: что делает извлечение сложным?
(неявно, длинный контекст, многошаговая логика, противоречия)
ШАГ 2 — ИЗВЛЕЧЕНИЕ ПО ТИПУ
ПЕРСОНАЛИЗАЦИЯ: конкретные факты. Формат: [Кто] — [что] — [контекст]
АНАЛИТИКА: что сработало / не сработало. Формат: [Ситуация] → [Итог] → [Почему]
ПАТТЕРНЫ: повторяющиеся шаги. Формат: [Условие] → [Шаги] → [Результат]
ШАГ 3 — ФИНАЛЬНАЯ ПАМЯТЬ
{число_пунктов} конкретных пунктов для использования в будущем.
Только специфичное — без общих мест.
Текст:
{текст}
Плейсхолдеры:
- {текст} — разговор, транскрипт, история чата, заметки встречи
- {число_пунктов} — сколько итоговых пунктов нужно (3-5 для быстро, 7-10 для детально)
Типы можно переименовать под задачу: вместо ПЕРСОНАЛИЗАЦИЯ / АНАЛИТИКА / ПАТТЕРНЫ поставь КЛИЕНТ / РЕШЕНИЕ / ПРОЦЕСС — для рабочих заметок о проектах.
🚀 Быстрый старт — вставь в чат:
Вот шаблон для извлечения памяти из разговора.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: какой тип контента обрабатываешь и что делать с результатом — потому что от этого зависят названия типов и формат вывода в ШАГ 2. Она возьмёт структуру из шаблона и адаптирует категории под твой контекст.
Ограничения
⚠️ Простые задачи: Для коротких однотипных текстов (одно интервью, один жанр контента) трёхшаговая классификация избыточна — обычный промпт «выдели главное» справится не хуже.
⚠️ Качество зависит от объёма: Чем короче фрагмент, тем менее точна классификация по типу. Метод раскрывается на длинных, разнородных материалах.
⚠️ Автоматическая эволюция промпта — основная часть CluE — требует автоматизированный пайплайн с тренировочными примерами и оценочными функциями. В обычном чате это не воспроизвести. Применимо только ручное извлечение принципов.
⚠️ Детальная таксономия не гарантирует результат: Если добавить 5-6 типов вместо 2-3, модель начинает хуже следовать инструкциям. Держи классификацию простой.
Ресурсы
Self-Evolving LLM Memory Extraction Across Heterogeneous Tasks Preprint, under review. Авторы: Yuqing Yang, Tengxiao Liu, Wang Bill Zhu, Taiwei Shi, Linxin Song, Robin Jia University of Southern California, University of California Santa Barbara Код и данные: https://github.com/ayyyq/heterogeneous-memory-extraction
