3,583 papers
arXiv:2605.11325 81 11 мая 2026 г. FREE

Structured Belief Store: превращение памяти между сессиями в набор готовых инструкций

КЛЮЧЕВАЯ СУТЬ
Каждую новую сессию вы тратите 10-15 минут на объяснение — кто вы, какой проект, что уже решено. Потому что пишете контекст как историю, а не как набор команд. Tenure позволяет хранить всё это в структурированном документе убеждений — и вставлять его в начало сессии вместо пересказа. Ключевое поле — «Инструкция»: не «мне нравятся короткие абзацы», а «разбивай на абзацы не длиннее 3 предложений без исключений». Вставил документ — модель работает как будто давно знает вас и проект.
Адаптировать под запрос

TL;DR

Каждый раз, когда вы открываете новый чат, LLM не помнит ничего из прошлого разговора. Чтобы решить это, большинство систем памяти (включая встроенную память ChatGPT) сохраняют историю разговоров и ищут похожие фрагменты через смысловой поиск. Исследование доказывает, что это неправильный подход. Вместо него предлагается Structured Belief Store — хранилище убеждений: структурированный документ с фактами о вас, каждый из которых сопровождается не описанием, а прямой инструкцией для модели.

Главная находка: Смысловой поиск по памяти разваливается, когда вы работаете в одной теме. Если ваш проект использует Fastify, MongoDB и TypeScript — все эти факты семантически близки друг к другу. Модель запрашивает что-то про Fastify, а получает в ответ MongoDB и TypeScript тоже — потому что они «похожи по смыслу». Cosine similarity находит нужный факт только в 8 случаях из 72. Точный поиск по именованным терминам — в 72 из 72. Проблема не в качестве поиска. Проблема в том, что память — это задача управления состоянием, а не задача поиска.

Суть метода: Вместо того чтобы хранить историю чатов и искать по ней, вы ведёте структурированный документ с убеждениями. Каждое убеждение — не просто факт, а императивная инструкция: не «использует TypeScript со strict mode», а «всегда форматируй примеры кода в TypeScript со strict mode, никакого implicit any». Этот документ вы вставляете в начало каждой новой сессии.


🔬

Схема метода

ШАГ 1: Ведёте "хранилище убеждений" — структурированный документ
        Типы убеждений:
        → Преференции (как вы работаете, общаетесь)
        → Решения (что уже решено + отклонённые альтернативы)
        → Сущности (ваши проекты, термины, псевдонимы)
        → Открытые вопросы (что ещё не решено)
        → Экспертиза (ваш уровень в теме)

        Каждое убеждение содержит:
        → Факт: [что есть]
        → Почему важно: [что делать модели из-за этого факта]
        → Статус: активное / устаревшее

ШАГ 2: Обновляете документ после каждой важной сессии
        → Новые решения → добавляете как убеждения
        → Изменившиеся факты → маркируете старые как "устаревшее", добавляете новые
        → НЕ удаляете старое — помечаете статусом

ШАГ 3: Вставляете документ в начало каждой новой сессии
        → Модель получает готовые инструкции, не сырые факты
        → Нет повторного объяснения контекста

Все шаги — ручной процесс, без кода. Документ хранится у вас (Notion, файл, заметки).

🚀

Пример применения

Задача: Евгений Касперский ведёт работу с Claude над серией постов для своего Telegram-канала о кибербезопасности. Каждую неделю — новая сессия. Каждый раз приходится заново объяснять: аудитория не технари, стиль — провокационный, TikTok не предлагать, ChatGPT упоминать только как угрозу.

Промпт:

Это мой постоянный контекст. Прочитай и следуй инструкциям в разделе "Почему важно" 
на протяжении всего нашего разговора.

---
## МОЙ КОНТЕКСТ (Belief Store)

### ПРЕФЕРЕНЦИИ
- Факт: Аудитория Telegram-канала — топ-менеджеры и предприниматели, не технари
  Почему важно: Объясняй технические угрозы через бизнес-последствия и деньги, 
  избегай жаргона типа "zero-day exploit", заменяй на "уязвимость, о которой 
  никто не знает пока её не использовали"

- Факт: Стиль подачи — провокационный, прямой, с конкретными цифрами
  Почему важно: Избегай мягких формулировок типа "может привести к последствиям". 
  Пиши "потеряете X миллионов рублей" или "данные 2 миллионов клиентов окажутся 
  у конкурентов"

### РЕШЕНИЯ
- Факт: Отказались от видео-формата для этого канала
  Почему важно: Не предлагай Reels, TikTok, YouTube Shorts как каналы распространения
  Отклонённые альтернативы: видео (слишком дорого в производстве для нашей команды)

- Факт: ChatGPT и другие AI-сервисы — тема постов про угрозы безопасности данных
  Почему важно: При упоминании ChatGPT в контексте бизнес-инструментов — 
  добавляй предупреждение про передачу данных третьим сторонам

### СУЩНОСТИ
- "Лаб" или "Лаборатория" = Лаборатория Касперского, мой основной бизнес
  Почему важно: Когда говорю "наш продукт" или "Лаб" — имею в виду наше ПО, 
  не упоминай конкурентов в том же контексте без явного запроса

### ОТКРЫТЫЕ ВОПРОСЫ
- Не решили: делать ли отдельную рубрику про ИИ-угрозы или вписывать в общий поток
  Почему важно: Если предлагаешь контент-план — напомни, что этот вопрос открыт, 
  и задай его снова

### ПЕРСОНАЛЬНЫЙ СТИЛЬ
Евгений — эксперт с 30-летним стажем, говорит прямо, без лишних реверансов. 
Не начинай ответы с комплиментов его идеям. Если видишь проблему в подходе — 
говори сразу и конкретно.

---
Задача на сегодня: [опиши что нужно сделать]

Результат: Модель сразу работает в нужном режиме — без вводного брифинга на 5 минут. Не предложит TikTok. Автоматически будет переводить технические угрозы в деньги и бизнес-последствия. Напомнит про открытый вопрос про ИИ-рубрику, если будет контент-план.


🧠

Почему это работает

Слабость LLM: Модель — это машина завершения текста, а не агент с памятью. Каждая сессия начинается с чистого листа. Ваш 2-часовой разговор про стратегию продвижения, где вы решили не идти в B2C — для следующей сессии не существует. Модель снова предложит B2C.

Что модель умеет хорошо: Следовать чётким инструкциям в контексте. Если инструкция есть в окне — модель её применяет. Проблема не в способностях модели, а в том, что вы передаёте в начале сессии.

Как метод обходит проблему: Разница между фактом и инструкцией — это разница между «знать» и «делать». «Клиент предпочитает формальный стиль» — это факт, модель должна сама догадаться что с ним делать. «Всегда обращайся к клиенту на "Вы", избегай сленга и emoji» — это инструкция, модель действует немедленно. Исследование называет это декларативным vs. императивным представлением памяти. Structured Belief Store делает память действующей, а не просто хранящейся.

Рычаги управления: - Статус убеждения (активное / устаревшее) — маркируй старые факты, не удаляй. Это защищает от "context rot": модель не будет советовать то, что вы уже пробовали и отклонили - Скоп (универсальный / для проекта) — разные документы для разных проектов. Убеждения про стиль письма не влияют на код - Открытые вопросы — явный раздел для того что не решено. Модель напомнит сама, а не будет молча угадывать


📋

Шаблон промпта

Это мой постоянный контекст для работы по теме {тема_или_проект}. 
Прочитай и следуй инструкциям в поле "Почему важно" на протяжении всего разговора.

---
## МОЙ КОНТЕКСТ

### ПРЕФЕРЕНЦИИ
- Факт: {описание преференции}
  Почему важно: {что делать модели из-за этого}

- Факт: {описание преференции 2}
  Почему важно: {что делать модели из-за этого}

### РЕШЕНИЯ
- Факт: {что уже решено}
  Почему важно: {что не предлагать / как учитывать в ответах}
  Отклонённые альтернативы: {что пробовали и не взяли}

### СУЩНОСТИ
- "{псевдоним}" = {полное название / описание}
  Почему важно: {как использовать это знание в ответах}

### ОТКРЫТЫЕ ВОПРОСЫ
- Не решено: {что}
  Почему важно: {как учитывать — напоминать, не давать советов на это, etc.}

### ПЕРСОНАЛЬНЫЙ СТИЛЬ
{1-3 предложения про то как вы хотите чтобы модель с вами общалась}

---
Задача на сегодня: {задача}

Плейсхолдеры: - {тема_или_проект} — "работа с клиентом X", "мой стартап", "написание книги" - {описание преференции} — факт о том как вы работаете - {почему важно} — конкретная инструкция для модели, начинай с глагола: "Всегда...", "Никогда не...", "Форматируй...", "Напоминай..." - {что решено} — зафиксированное решение с контекстом


🚀 Быстрый старт — вставь в чат:

Помоги мне создать "хранилище убеждений" (Belief Store) для нашей постоянной работы. 
Задай мне вопросы, чтобы заполнить этот шаблон под мою задачу: {твоя задача}.

[вставить шаблон выше]

LLM спросит про ваши рабочие преференции, уже принятые решения, ключевые термины и открытые вопросы — потому что именно эти категории формируют убеждения. Затем она сформирует готовый документ, который вы вставляете в начало каждой следующей сессии.


⚠️

Ограничения

⚠️ Ручное обслуживание: Документ нужно обновлять самому после каждой важной сессии. Без дисциплины он быстро устареет — и обеспечит тот самый "context rot", от которого защищает.

⚠️ Размер контекста: Большой Belief Store съедает токены. Для коротких задач или простых запросов — избыточно. Держите документ компактным: только убеждения с реальным действием на ответы модели.

⚠️ Не для разового использования: Метод окупается при регулярной работе в одной теме. Если открываете чат раз в месяц — проще ввести контекст заново.

⚠️ Качество почему важно: Если инструкция написана расплывчато ("учитывай мой стиль"), модель применит её плохо. Каждое убеждение должно начинаться с конкретного глагола-действия.


🔍

Как исследовали

Идея была простой: взять один и тот же набор убеждений и проверить два метода поиска по нему — смысловой (cosine similarity по эмбеддингам) и точный (BM25 с псевдонимами). Авторы составили 60 статических тестовых запросов плюс 12 сессионных — итого 72 случая, покрывающих разные сложности: разрешение псевдонимов (k8s → Kubernetes), изоляцию между проектами, устаревшие убеждения, накопление шума при долгих разговорах.

Результат оказался не просто победой одного метода над другим — это разгром. BM25 прошёл 72/72. Cosine similarity — 8/72. Особенно показательна сессионная часть: при многоходовом разговоре с дрейфом темы смысловой поиск начинал тянуть случайные факты из хранилища (drift score 0.43–0.50 на «шумных» поворотах). BM25 держал точность 0 дрейфа.

Почему такой разрыв? В тематически связном хранилище — например, у разработчика, который работает с Redis, MongoDB и PostgreSQL — все факты семантически близки друг к другу. Cosine similarity видит «базы данных» и тянет всё подряд. BM25 ищет точное слово: написал redis — получил Redis. Это не баг поиска, это принципиальный лимит семантических эмбеддингов в bounded vocabulary контекстах (хранилища с единой тематикой).


💡

Адаптации и экстраполяции

🔧 Техника: Быстрый Belief Store через конец сессии → перенос в следующую

В конце важной сессии попросите модель сформировать обновления для вашего хранилища:

Мы завершаем сессию. Составь список новых убеждений для моего Belief Store
в формате шаблона. Для каждого факта напиши поле "Почему важно" как конкретную
инструкцию, начиная с глагола. Отдельно перечисли убеждения, которые стали устаревшими.

Это решает главную проблему ручного ведения — вы не упоминаете важные вещи потому что устали или забыли. Модель, пока контекст свежий, зафиксирует всё сама.

🔧 Техника: Persona Prelude как отдельный блок

Авторы выделяют «персональное вступление» в отдельный блок — поведенческие инструкции, не завязанные на конкретные факты, а описывающие стиль взаимодействия в целом. Добавьте его перед всем остальным:

## ПЕРСОНАЛЬНОЕ ВСТУПЛЕНИЕ
Ты работаешь с [имя]. Вот как строить наше взаимодействие:
- [стиль коммуникации: прямо, без реверансов, с конкретикой]
- [как реагировать на неопределённость: спрашивать, а не угадывать]
- [что делать при конфликте инструкций: приоритет задачи дня над общими правилами]

Этот блок работает всегда, независимо от проекта и задачи — это ваша базовая настройка модели.


🔗

Ресурсы

Beyond Similarity Search: Tenure and the Case for Structured Belief State in LLM Memory — Jeffrey Flynt (Independent Researcher, UT Austin). May 2026.

Код и оценочный набор: github.com/jeffreyflynt/tenure

Упомянутые системы для сравнения: ChatGPT Memory, Mem0, Memori, A-MEM, Mnemis, H-Mem.


📋 Дайджест исследования

Ключевая суть

Каждую новую сессию вы тратите 10-15 минут на объяснение — кто вы, какой проект, что уже решено. Потому что пишете контекст как историю, а не как набор команд. Tenure позволяет хранить всё это в структурированном документе убеждений — и вставлять его в начало сессии вместо пересказа. Ключевое поле — «Инструкция»: не «мне нравятся короткие абзацы», а «разбивай на абзацы не длиннее 3 предложений без исключений». Вставил документ — модель работает как будто давно знает вас и проект.

Принцип работы

Разрыв между «клиент предпочитает официальный тон» и «пиши строго официально, никаких разговорных оборотов даже в заголовках» — не стиль. Это разница между описанием и инструкцией. Из описания модель выводит правила сама. Каждый раз. С риском ошибиться. Из инструкции — просто следует. Tenure говорит: пиши контекст как регламент, а не как рассказ о себе. Каждый факт получает тип (ПРЕДПОЧТЕНИЕ / РЕШЕНИЕ / ЭКСПЕРТИЗА / ОТКРЫТЫЙ ВОПРОС), статус (активное / устаревшее), область (универсальное / проект:X) и поле «Инструкция» — что именно делать из-за этого факта.

Почему работает

LLM — машина по следованию инструкциям, а не по интерпретации биографий. Вставляете нарратив — модель тратит внимание на извлечение правил из текста. Вставляете явные команды — она просто выполняет. Второй рычаг — статус SUPERSEDED вместо удаления. Устаревшие убеждения не стираются, а помечаются: модель понимает что «думали так, но передумали» — и не путается между старым и новым решением. Третий рычаг — области видимости: убеждения для одного клиента физически не попадают в сессию по другому.

Когда применять

Фрилансеры и консультанты — для работы с несколькими клиентами параллельно, особенно когда у каждого свои правила тона, форматов и уже принятых решений. Разработчики — для проектов с устоявшимися соглашениями по архитектуре, стеку, стилю кода. Редакторы и контент-менеджеры — для брендбуков и редполитики клиентов. НЕ подходит тем, кто не готов поддерживать документ после каждой сессии — без обновлений накапливаются устаревшие инструкции, и документ начинает мешать быстрее чем помогает.

Мини-рецепт

1. Заведите документ: секция «Универсальные» (работает в любом контексте) + отдельная секция для каждого проекта или клиента
2. Для каждого факта запишите: тип, статус, сам факт — и главное — поле «Инструкция»: что модель должна конкретно делать из-за этого факта
3. Когда решение меняется: не удаляйте старое. Пометьте [SUPERSEDED] и добавьте новое убеждение снизу с объяснением почему передумали
4. В начале сессии: вставьте нужные секции документа с пометкой «действуй строго согласно полю Инструкция каждого убеждения — не интерпретируй, а выполняй»
5. После сессии: 2 минуты на обновление — что нового решили, что изменилось, какие открытые вопросы закрылись

Примеры

[ПЛОХО] : Я работаю с клиентом из e-commerce. Они хотят официальный тон, мы решили не использовать форматы из списков. Напиши описание товара.
[ХОРОШО] : Вот убеждения для клиента СберМаркет. Следуй полю Инструкция — не интерпретируй, выполняй. [ПРЕДПОЧТЕНИЕ | активное | проект:СберМаркет] Факт: клиент требует официальный тон, обращение на вы Инструкция: пиши строго официально, никакого ты, никаких разговорных оборотов даже в заголовках [РЕШЕНИЕ | активное] Факт: от формата 10 причин купить отказались после теста Почему: A/B-тест показал падение кликабельности на 23% против нарративных текстов Инструкция: не предлагай списочные форматы — только нарративные тексты с одной центральной историей [ОТКРЫТЫЙ ВОПРОС] Факт: не решили, вставлять ли отзывы покупателей в тексты Инструкция: если тема всплывёт — напомни что вопрос открыт, не принимай решение за меня Задача: опиши греческий йогурт Чобани, 150г, 299р. Аудитория — женщины 25-40, сегмент здорового питания. Результат: модель пишет в официальном тоне, нарративом без списков, останавливается и напоминает про открытый вопрос если тема отзывов возникает — вместо того чтобы решить за вас.
Источник: Beyond Similarity Search: Tenure and the Case for Structured Belief State in LLM Memory
ArXiv ID: 2605.11325 | Сгенерировано: 2026-05-13 06:35

Проблемы LLM

ПроблемаСутьКак обойти
Нарративный контекст — модель выводит правила самаДаёшь контекст текстом: "я работаю с клиентом X, они хотят официальный тон, мы решили что...". Модель читает это как историю. Из истории надо самостоятельно вывести правила поведения. Каждую сессию — заново, с риском ошибиться. Пишешь "мне нравятся короткие абзацы" модель сама решает что это значитПиши контекст не как описание, а как директиву. Не "предпочитаю короткие абзацы", а "разбивай на абзацы не длиннее 3 предложений без исключений". Одно предложение — одна инструкция к действию
Устаревший контекст путает модельРешение изменилось. Старую инструкцию удалил. Но модель не знает почему изменилось. Новая и старая инструкции могут противоречить — если обе остались в тексте. Если удалил старую — потерял историю решенияНе удаляй устаревшие инструкции. Помечай их как [SUPERSEDED] и пиши рядом новую. Модель видит: "думали так, передумали". Понимает направление изменений

Методы

МетодСуть
Структура "факт + инструкция" для постоянного контекстаРазбей контекст на отдельные убеждения. Каждое — два поля: Факт (что есть) и Инструкция (что модель должна делать из-за этого факта). Пример: Факт: глубоко разбираюсь в e-commerce. Инструкция: не объясняй базовые термины — переходи сразу к нюансам. Тип убеждения указывай явно: ПРЕДПОЧТЕНИЕ / РЕШЕНИЕ / ЭКСПЕРТИЗА / ОТКРЫТЫЙ ВОПРОС. Почему работает: модель отлично следует явным директивам. Плохо выводит правила из описаний. Поле инструкции убирает шаг вывода. Когда применять: повторяющиеся задачи, несколько клиентов/проектов, контекст который объясняешь заново каждую сессию
Области видимости для контекстаРаздели убеждения на два слоя: УНИВЕРСАЛЬНЫЕ (применяй всегда, в любой задаче) и ПРОЕКТ: НАЗВАНИЕ (применяй только для этого клиента/проекта). Вставь обе секции в начало сессии с явной пометкой к каждой. Почему работает: без разделения инструкции для одного проекта просачиваются в другой. Модель применяет "официальный тон для клиента X" везде, а не только там где нужно. Когда критично: параллельная работа с несколькими проектами с разными требованиями
📖 Простыми словами

Beyond Similarity Search: Tenure and the Case for Structured Belief State inLLMMemory

arXiv: 2605.11325

Проблема современных нейросетей в том, что у них память как у золотой рыбки: каждая новая сессия — это чистый лист. Ты можешь годами скармливать чату свои предпочтения, но без четкой структуры он воспринимает твои данные как белый шум или просто очередную историю на ночь. Метод Tenure меняет саму логику хранения контекста: вместо того чтобы просто сваливать факты в кучу, он создает структурированный документ убеждений. Это не просто мемуары о твоей работе, а жесткий набор инструкций, где каждый факт привязан к конкретному действию.

Это как разница между личным дневником и армейским уставом. В дневнике ты можешь долго рассуждать, что любишь кофе по утрам и ненавидишь дедлайны, но для нейросети это просто текст. Устав же четко говорит: «если происходит А, делай Б». Когда ты даешь модели рыхлое описание своего проекта, она тратит ресурсы на то, чтобы угадать, как себя вести. С Tenure ты сразу даешь ей «прошивку», и она перестает галлюцинировать на пустом месте, потому что у неё в руках готовый алгоритм действий.

В основе метода лежат чётко типизированные факты. Вместо размытого «клиент хочет официально», ты прописываешь структурированное состояние: «Запрещено использовать восклицательные знаки», «Обращение только на Вы», «LSI-фразы брать из списка Х». Исследование показывает, что такая формализация контекста работает в разы лучше, чем обычный поиск по сходству (RAG). Модели не нужно гадать, подходит ли этот кусок текста к твоему вопросу — она видит прямую инструкцию, которая вшита в её текущую логику поведения.

Тестировали это на рабочих процессах, но принцип универсален. Это спасение для любого, кто ведет сложные проекты: от копирайтеров с десятком разных заказчиков до программистов, которым нужно, чтобы AI помнил архитектуру всей системы, а не только последний файл. Tenure превращает нейросеть из забывчивого собеседника в профессионального ассистента, который знает твои правила игры еще до того, как ты открыл рот. Это переход от хаотичных заметок к полноценной базе знаний, понятной машине.

Короче: хватит надеяться, что нейросеть «сама поймет» твой контекст из длинных простыней текста. Нужно перестать писать описания и начать создавать структурированные инструкции. Если ты не задашь жесткие рамки через типизированные факты, модель продолжит лажать и переспрашивать очевидное. Либо ты тратишь время на настройку своей «внешней памяти», либо каждый раз объясняешь AI, кто ты такой и чего вообще хочешь.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с