TL;DR
Каждый раз, когда вы открываете новый чат, LLM не помнит ничего из прошлого разговора. Чтобы решить это, большинство систем памяти (включая встроенную память ChatGPT) сохраняют историю разговоров и ищут похожие фрагменты через смысловой поиск. Исследование доказывает, что это неправильный подход. Вместо него предлагается Structured Belief Store — хранилище убеждений: структурированный документ с фактами о вас, каждый из которых сопровождается не описанием, а прямой инструкцией для модели.
Главная находка: Смысловой поиск по памяти разваливается, когда вы работаете в одной теме. Если ваш проект использует Fastify, MongoDB и TypeScript — все эти факты семантически близки друг к другу. Модель запрашивает что-то про Fastify, а получает в ответ MongoDB и TypeScript тоже — потому что они «похожи по смыслу». Cosine similarity находит нужный факт только в 8 случаях из 72. Точный поиск по именованным терминам — в 72 из 72. Проблема не в качестве поиска. Проблема в том, что память — это задача управления состоянием, а не задача поиска.
Суть метода: Вместо того чтобы хранить историю чатов и искать по ней, вы ведёте структурированный документ с убеждениями. Каждое убеждение — не просто факт, а императивная инструкция: не «использует TypeScript со strict mode», а «всегда форматируй примеры кода в TypeScript со strict mode, никакого implicit any». Этот документ вы вставляете в начало каждой новой сессии.
Схема метода
ШАГ 1: Ведёте "хранилище убеждений" — структурированный документ
Типы убеждений:
→ Преференции (как вы работаете, общаетесь)
→ Решения (что уже решено + отклонённые альтернативы)
→ Сущности (ваши проекты, термины, псевдонимы)
→ Открытые вопросы (что ещё не решено)
→ Экспертиза (ваш уровень в теме)
Каждое убеждение содержит:
→ Факт: [что есть]
→ Почему важно: [что делать модели из-за этого факта]
→ Статус: активное / устаревшее
ШАГ 2: Обновляете документ после каждой важной сессии
→ Новые решения → добавляете как убеждения
→ Изменившиеся факты → маркируете старые как "устаревшее", добавляете новые
→ НЕ удаляете старое — помечаете статусом
ШАГ 3: Вставляете документ в начало каждой новой сессии
→ Модель получает готовые инструкции, не сырые факты
→ Нет повторного объяснения контекста
Все шаги — ручной процесс, без кода. Документ хранится у вас (Notion, файл, заметки).
Пример применения
Задача: Евгений Касперский ведёт работу с Claude над серией постов для своего Telegram-канала о кибербезопасности. Каждую неделю — новая сессия. Каждый раз приходится заново объяснять: аудитория не технари, стиль — провокационный, TikTok не предлагать, ChatGPT упоминать только как угрозу.
Промпт:
Это мой постоянный контекст. Прочитай и следуй инструкциям в разделе "Почему важно"
на протяжении всего нашего разговора.
---
## МОЙ КОНТЕКСТ (Belief Store)
### ПРЕФЕРЕНЦИИ
- Факт: Аудитория Telegram-канала — топ-менеджеры и предприниматели, не технари
Почему важно: Объясняй технические угрозы через бизнес-последствия и деньги,
избегай жаргона типа "zero-day exploit", заменяй на "уязвимость, о которой
никто не знает пока её не использовали"
- Факт: Стиль подачи — провокационный, прямой, с конкретными цифрами
Почему важно: Избегай мягких формулировок типа "может привести к последствиям".
Пиши "потеряете X миллионов рублей" или "данные 2 миллионов клиентов окажутся
у конкурентов"
### РЕШЕНИЯ
- Факт: Отказались от видео-формата для этого канала
Почему важно: Не предлагай Reels, TikTok, YouTube Shorts как каналы распространения
Отклонённые альтернативы: видео (слишком дорого в производстве для нашей команды)
- Факт: ChatGPT и другие AI-сервисы — тема постов про угрозы безопасности данных
Почему важно: При упоминании ChatGPT в контексте бизнес-инструментов —
добавляй предупреждение про передачу данных третьим сторонам
### СУЩНОСТИ
- "Лаб" или "Лаборатория" = Лаборатория Касперского, мой основной бизнес
Почему важно: Когда говорю "наш продукт" или "Лаб" — имею в виду наше ПО,
не упоминай конкурентов в том же контексте без явного запроса
### ОТКРЫТЫЕ ВОПРОСЫ
- Не решили: делать ли отдельную рубрику про ИИ-угрозы или вписывать в общий поток
Почему важно: Если предлагаешь контент-план — напомни, что этот вопрос открыт,
и задай его снова
### ПЕРСОНАЛЬНЫЙ СТИЛЬ
Евгений — эксперт с 30-летним стажем, говорит прямо, без лишних реверансов.
Не начинай ответы с комплиментов его идеям. Если видишь проблему в подходе —
говори сразу и конкретно.
---
Задача на сегодня: [опиши что нужно сделать]
Результат: Модель сразу работает в нужном режиме — без вводного брифинга на 5 минут. Не предложит TikTok. Автоматически будет переводить технические угрозы в деньги и бизнес-последствия. Напомнит про открытый вопрос про ИИ-рубрику, если будет контент-план.
Почему это работает
Слабость LLM: Модель — это машина завершения текста, а не агент с памятью. Каждая сессия начинается с чистого листа. Ваш 2-часовой разговор про стратегию продвижения, где вы решили не идти в B2C — для следующей сессии не существует. Модель снова предложит B2C.
Что модель умеет хорошо: Следовать чётким инструкциям в контексте. Если инструкция есть в окне — модель её применяет. Проблема не в способностях модели, а в том, что вы передаёте в начале сессии.
Как метод обходит проблему: Разница между фактом и инструкцией — это разница между «знать» и «делать». «Клиент предпочитает формальный стиль» — это факт, модель должна сама догадаться что с ним делать. «Всегда обращайся к клиенту на "Вы", избегай сленга и emoji» — это инструкция, модель действует немедленно. Исследование называет это декларативным vs. императивным представлением памяти. Structured Belief Store делает память действующей, а не просто хранящейся.
Рычаги управления:
- Статус убеждения (активное / устаревшее) — маркируй старые факты, не удаляй. Это защищает от "context rot": модель не будет советовать то, что вы уже пробовали и отклонили
- Скоп (универсальный / для проекта) — разные документы для разных проектов. Убеждения про стиль письма не влияют на код
- Открытые вопросы — явный раздел для того что не решено. Модель напомнит сама, а не будет молча угадывать
Шаблон промпта
Это мой постоянный контекст для работы по теме {тема_или_проект}.
Прочитай и следуй инструкциям в поле "Почему важно" на протяжении всего разговора.
---
## МОЙ КОНТЕКСТ
### ПРЕФЕРЕНЦИИ
- Факт: {описание преференции}
Почему важно: {что делать модели из-за этого}
- Факт: {описание преференции 2}
Почему важно: {что делать модели из-за этого}
### РЕШЕНИЯ
- Факт: {что уже решено}
Почему важно: {что не предлагать / как учитывать в ответах}
Отклонённые альтернативы: {что пробовали и не взяли}
### СУЩНОСТИ
- "{псевдоним}" = {полное название / описание}
Почему важно: {как использовать это знание в ответах}
### ОТКРЫТЫЕ ВОПРОСЫ
- Не решено: {что}
Почему важно: {как учитывать — напоминать, не давать советов на это, etc.}
### ПЕРСОНАЛЬНЫЙ СТИЛЬ
{1-3 предложения про то как вы хотите чтобы модель с вами общалась}
---
Задача на сегодня: {задача}
Плейсхолдеры:
- {тема_или_проект} — "работа с клиентом X", "мой стартап", "написание книги"
- {описание преференции} — факт о том как вы работаете
- {почему важно} — конкретная инструкция для модели, начинай с глагола: "Всегда...", "Никогда не...", "Форматируй...", "Напоминай..."
- {что решено} — зафиксированное решение с контекстом
🚀 Быстрый старт — вставь в чат:
Помоги мне создать "хранилище убеждений" (Belief Store) для нашей постоянной работы.
Задай мне вопросы, чтобы заполнить этот шаблон под мою задачу: {твоя задача}.
[вставить шаблон выше]
LLM спросит про ваши рабочие преференции, уже принятые решения, ключевые термины и открытые вопросы — потому что именно эти категории формируют убеждения. Затем она сформирует готовый документ, который вы вставляете в начало каждой следующей сессии.
Ограничения
⚠️ Ручное обслуживание: Документ нужно обновлять самому после каждой важной сессии. Без дисциплины он быстро устареет — и обеспечит тот самый "context rot", от которого защищает.
⚠️ Размер контекста: Большой Belief Store съедает токены. Для коротких задач или простых запросов — избыточно. Держите документ компактным: только убеждения с реальным действием на ответы модели.
⚠️ Не для разового использования: Метод окупается при регулярной работе в одной теме. Если открываете чат раз в месяц — проще ввести контекст заново.
⚠️ Качество
почему важно: Если инструкция написана расплывчато ("учитывай мой стиль"), модель применит её плохо. Каждое убеждение должно начинаться с конкретного глагола-действия.
Как исследовали
Идея была простой: взять один и тот же набор убеждений и проверить два метода поиска по нему — смысловой (cosine similarity по эмбеддингам) и точный (BM25 с псевдонимами). Авторы составили 60 статических тестовых запросов плюс 12 сессионных — итого 72 случая, покрывающих разные сложности: разрешение псевдонимов (k8s → Kubernetes), изоляцию между проектами, устаревшие убеждения, накопление шума при долгих разговорах.
Результат оказался не просто победой одного метода над другим — это разгром. BM25 прошёл 72/72. Cosine similarity — 8/72. Особенно показательна сессионная часть: при многоходовом разговоре с дрейфом темы смысловой поиск начинал тянуть случайные факты из хранилища (drift score 0.43–0.50 на «шумных» поворотах). BM25 держал точность 0 дрейфа.
Почему такой разрыв? В тематически связном хранилище — например, у разработчика, который работает с Redis, MongoDB и PostgreSQL — все факты семантически близки друг к другу. Cosine similarity видит «базы данных» и тянет всё подряд. BM25 ищет точное слово: написал redis — получил Redis. Это не баг поиска, это принципиальный лимит семантических эмбеддингов в bounded vocabulary контекстах (хранилища с единой тематикой).
Адаптации и экстраполяции
🔧 Техника: Быстрый Belief Store через конец сессии → перенос в следующую
В конце важной сессии попросите модель сформировать обновления для вашего хранилища:
Мы завершаем сессию. Составь список новых убеждений для моего Belief Store в формате шаблона. Для каждого факта напиши поле "Почему важно" как конкретную инструкцию, начиная с глагола. Отдельно перечисли убеждения, которые стали устаревшими.Это решает главную проблему ручного ведения — вы не упоминаете важные вещи потому что устали или забыли. Модель, пока контекст свежий, зафиксирует всё сама.
🔧 Техника: Persona Prelude как отдельный блок
Авторы выделяют «персональное вступление» в отдельный блок — поведенческие инструкции, не завязанные на конкретные факты, а описывающие стиль взаимодействия в целом. Добавьте его перед всем остальным:
## ПЕРСОНАЛЬНОЕ ВСТУПЛЕНИЕ Ты работаешь с [имя]. Вот как строить наше взаимодействие: - [стиль коммуникации: прямо, без реверансов, с конкретикой] - [как реагировать на неопределённость: спрашивать, а не угадывать] - [что делать при конфликте инструкций: приоритет задачи дня над общими правилами]Этот блок работает всегда, независимо от проекта и задачи — это ваша базовая настройка модели.
Ресурсы
Beyond Similarity Search: Tenure and the Case for Structured Belief State in LLM Memory — Jeffrey Flynt (Independent Researcher, UT Austin). May 2026.
Код и оценочный набор: github.com/jeffreyflynt/tenure
Упомянутые системы для сравнения: ChatGPT Memory, Mem0, Memori, A-MEM, Mnemis, H-Mem.
