TL;DR
Мышление любого человека, который много и системно пишет, можно извлечь из его текстов и закодировать в промпт — так что LLM начинает думать его логикой, не просто имитировать стиль. Исследователи назвали это Relic Condition: механизм, при котором публичный корпус текстов превращается в сырьё для создания «интеллектуального двойника».
Ключевое открытие: у каждого серьёзного автора есть стабильная архитектура суждения — как он определяет понятия, какие различия считает решающими, какие аргументы отвергает как категориальные ошибки, на что опирается. Эта архитектура невидима в разговоре, но отчётливо видна в текстах: давление публикаций и рецензирование буквально вынуждают автора делать логику прозрачной снова и снова.
Метод работает в два шага: сначала из корпуса текстов извлекаешь reasoning-систему эксперта — его аналитические ходы, пороги оценки, любимые различения, паттерны отказа. Затем кодируешь это в структурированные ограничения для LLM и получаешь ассистента, который отвечает не как «умный ChatGPT», а как конкретный мыслитель применительно к новой задаче.
Схема метода
ШАГ 1: Собрать корпус — статьи, книги, главы эксперта
→ Загрузить в LLM (один чат или через загрузку файлов)
ШАГ 2: Извлечь reasoning-систему — попросить LLM выявить:
- Как эксперт определяет ключевые понятия
- Какие различия он считает критическими
- Какие аргументы отвергает и почему
- На какие теории и идеи опирается по умолчанию
- Как устроена его логика доказательства
→ Получить структурированный «портрет мышления»
ШАГ 3: Собрать constraint-промпт — зафиксировать архитектуру
мышления как набор явных инструкций для LLM
→ Получить «эксперт-бот»
ШАГ 4: Задать новую задачу — применить эксперт-бот к вашему вопросу
→ Получить ответ в логике конкретного мыслителя
Все шаги можно выполнить в одном чате с загрузкой файлов.
Пример применения
Задача: Ты строишь стартап в сфере edtech и хочешь разобрать свою идею так, как это сделал бы Аркадий Морейнис — известный российский трекер и акселератор, у которого сотни публикаций о стартапах, юнит-экономике и ошибках фаундеров.
Промпт (Шаг 2 → 3):
Я загружу несколько статей и постов Аркадия Морейниса (текст ниже).
Твоя задача — извлечь его reasoning-систему как аналитика стартапов.
Найди и структурируй:
1. Как он определяет "рабочую идею" vs "нерабочую" — его критерии и пороги
2. Какие различия он считает решающими (например: боль vs желание,
клиент vs пользователь, и т.д.)
3. Какие аргументы он автоматически отвергает как слабые —
его "паттерны отказа"
4. На какие концепции он опирается по умолчанию
5. Как устроена его логика разбора идеи — с чего начинает,
куда движется
После извлечения — стань аналитиком с этой reasoning-системой
и разбери мою идею: [опиши идею].
[Вставить тексты Морейниса]
Результат: Модель сначала покажет структурированный «портрет мышления» — 5-7 блоков с конкретными критериями и логикой. Затем применит эту логику к вашей идее: укажет на слабые места именно теми словами и аргументами, которые характерны для Морейниса. Разбор будет не общим «ChatGPT-советом», а разбором в конкретной аналитической традиции.
Почему это работает
Почему обычный промпт «отвечай как Морейнис» не работает. LLM знает имя, знает общий стиль, но не знает архитектуру суждения: как именно этот человек определяет понятия до начала анализа, какие аргументы он считает категориальными ошибками, какую логику доказательства использует. Без этого — поверхностная имитация, а не мышление.
Что умеет LLM хорошо. Модель отлично распознаёт паттерны в больших массивах текста. Если один человек написал 30+ развёрнутых статей — его аналитические ходы повторяются: те же разграничения, те же отказы, та же последовательность рассуждений. LLM вычленяет эти паттерны лучше, чем большинство читателей.
Как метод закрывает разрыв. Вместо команды «будь как X» даётся явная структура мышления X — инструкции, извлечённые из самих текстов. LLM перестаёт угадывать стиль и начинает следовать зафиксированной логике. Именно поэтому в исследовании эксперты оценили результат выше «сильного академика вообще» — они узнали конкретную аналитическую традицию.
Рычаги управления: - Объём корпуса → чем больше текстов, тем точнее extraction. Минимум — 5-7 длинных статей - Специфичность задачи → метод работает лучше на структурированных задачах (оценить идею, дать обратную связь), хуже — на импровизационных (живой диалог, вопросы без формата) - Явность extraction → можно попросить LLM показать портрет мышления перед применением — тогда ты сам видишь и можешь скорректировать - Тип корпуса → лучше работает с аналитическими текстами (статьи, разборы), хуже — с художественными или purely rhetorical
Шаблон промпта
Ниже — тексты {имя эксперта}. Изучи их и извлеки его reasoning-систему.
**Что нужно найти:**
Как {имя} определяет ключевые понятия в своей области.
Найди формулировки которые повторяются — это его рабочие определения.
Какие различия он считает решающими и возвращается к ним снова и снова.
Что он разграничивает там, где другие смешивают?
По каким критериям он оценивает идеи, аргументы, решения как сильные или слабые.
Какие пороги качества он использует?
Какие аргументы он систематически отвергает.
Что для него — "категориальная ошибка" или заведомо слабый ход?
Как устроена его логика рассуждения: с чего начинает анализ,
какие вопросы задаёт первыми, куда движется.
После того как опишешь систему — стань аналитиком с этой
reasoning-системой и применись к задаче: {задача}
---
ТЕКСТЫ:
{вставить статьи, посты, главы эксперта}
Плейсхолдеры:
- {имя эксперта} — человек, чьё мышление клонируешь (Морейнис, Варламов, Фёдор Овчинников, любой автор в вашей сфере)
- {задача} — что нужно разобрать: идея продукта, стратегия, текст, аргумент
- {вставить тексты} — минимум 5-7 развёрнутых текстов эксперта
🚀 Быстрый старт — вставь в чат:
Вот шаблон для клонирования reasoning-системы эксперта.
Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит: какого эксперта клонировать, какие тексты доступны, что нужно разобрать — потому что ей нужен корпус текстов и конкретная задача, чтобы extraction имел смысл.
Ограничения
⚠️ Работает хуже на импровизации: structured tasks (оценить работу, дать рецензию, разобрать идею) — сильная зона. Живой диалог, ответы на неожиданные вопросы — слабее.
⚠️ Нужен достаточный корпус: на 2-3 коротких текстах extraction поверхностный. В исследовании использовали 35-68 аналитических единиц. В практике — минимум 5-7 длинных и разнообразных текстов одного автора.
⚠️ Клонируется relational tacit knowledge, не всё: метод захватывает явную логику рассуждений. «Телесная» экспертиза (интуиция, накопленный опыт, чувство поля) — за пределами метода. Но именно логика нужна в большинстве рабочих задач.
⚠️ Узкая выборка исследования: проверено на двух учёных-гуманитариях. Работает ли так же для предпринимателей, инженеров, журналистов — требует отдельной проверки.
Адаптации и экстраполяции
🔧 Техника: добавить явный шаг верификации → проверить точность extraction
После того как LLM извлечёт reasoning-систему, добавь: «Теперь приведи 2-3 цитаты из текстов, которые подтверждают каждый из пунктов». Это делает extraction прозрачным и позволяет скорректировать неточности прежде чем применять к задаче.
🔧 Экстраполяция: клонирование не человека, а организации
Тот же принцип работает для организаций с последовательной публичной позицией. Загрузи годовые отчёты, публичные выступления, стратегические документы компании — и извлеки reasoning-систему организации. Применение: моделировать как конкурент отреагирует на ваш ход, как инвестор оценит предложение.
🔧 Экстраполяция: клонирование своего собственного мышления для масштабирования
Собери свои лучшие тексты, разборы, решения за год. Запусти extraction на самом себе. Получишь структурированное описание собственной аналитической логики — и промпт, который позволяет LLM отвечать в твоей системе координат. Ценно для делегирования задач LLM без потери стиля и подхода.
Как исследовали
Команда взяла двух реальных учёных-гуманитариев с международными публикациями — у первого обработали 68 аналитических единиц (~1742 страницы), у второго 35 источников (статьи, книги, главы). Из этих корпусов восьмишаговым методом извлекли reasoning-систему каждого и кодировали её как structured constraints для LLM с высоким reasoning-конфигом — фактически написали промпты, задающие архитектуру мышления конкретного учёного.
Интересен дизайн: для проверки использовали функции, где стандарты известны — рецензирование статей, научное руководство, лекции, академическая дискуссия. Три независимых старших учёных-эксперта написали 18 оценочных отчётов и 6 синтезов в формате «рекомендации на должность». Параллельно тестовый раунд провели с теми же задачами через обычный ChatGPT/Claude/Gemini как baseline — чтобы проверить, что результат не просто «сильный фронтиерный чат».
Самый острый момент: ни один из шести independent evaluators не поставил ни одному боту меньше уровня Senior Lecturer (примерный эквивалент — tenured Associate Professor в США). Нижний порог ставил самый строгий оценщик — и его аргумент был не «качество плохое», а «нет publication record и grant history». То есть содержательно работа засчитана, лимит — по формальным данным, которых у бота просто нет. Это показательно: боты не просто «прошли порог» — они прошли его с запасом.
Что удивительно: разные боты сохранили разные личности. Первый был силён в концептуальных границах и политической аналитике. Второй — в операционализации и педагогике. Ни один эксперт не описал их как одинаково «просто сильный академик» — они узнали конкретные аналитические традиции. Это говорит о том, что метод захватывает именно индивидуальную архитектуру, а не усреднённую компетентность.
Ресурсы
Название работы: The Relic Condition: When Published Scholarship Becomes Material for Its Own Replacement
Авторы: Lin Deng (University of New South Wales), Chang-bo Liu (Independent Researcher)
Контакт: cleo.deng@unsw.edu.au
Ключевые отсылки из исследования: Polanyi (1966) — tacit knowledge; Collins (2010) — три типа неявного знания; Autor (2015) — дополняемость труда и автоматизации; Crawford (2021) — AI и извлечение человеческого труда; CD Projekt Red (2020) / Gibson (1984) — концепция Relic как портативного сознания
