3,583 papers
arXiv:2604.16116 82 17 апр. 2026 г. FREE

Relic Condition: клонирование аналитического мышления эксперта из его публикаций

КЛЮЧЕВАЯ СУТЬ
Промпт «отвечай как [имя]» работает плохо. Не потому что LLM тупит — а потому что стиль и архитектура суждения — разные вещи. LLM знает имя, знает тон, но не знает как именно этот человек определяет понятия до начала анализа, какие аргументы считает заведомо слабыми, какую последовательность рассуждений использует. Relic Condition это исправляет: вместо команды «будь как X» — явная структура мышления X, извлечённая из самих текстов эксперта. Метод позволяет получить ассистента, который думает логикой конкретного мыслителя, а не угадывает его голос. В исследовании эксперты оценили результат выше «сильного академика вообще» — они узнали конкретную аналитическую традицию.
Адаптировать под запрос

TL;DR

Мышление любого человека, который много и системно пишет, можно извлечь из его текстов и закодировать в промпт — так что LLM начинает думать его логикой, не просто имитировать стиль. Исследователи назвали это Relic Condition: механизм, при котором публичный корпус текстов превращается в сырьё для создания «интеллектуального двойника».

Ключевое открытие: у каждого серьёзного автора есть стабильная архитектура суждения — как он определяет понятия, какие различия считает решающими, какие аргументы отвергает как категориальные ошибки, на что опирается. Эта архитектура невидима в разговоре, но отчётливо видна в текстах: давление публикаций и рецензирование буквально вынуждают автора делать логику прозрачной снова и снова.

Метод работает в два шага: сначала из корпуса текстов извлекаешь reasoning-систему эксперта — его аналитические ходы, пороги оценки, любимые различения, паттерны отказа. Затем кодируешь это в структурированные ограничения для LLM и получаешь ассистента, который отвечает не как «умный ChatGPT», а как конкретный мыслитель применительно к новой задаче.


🔬

Схема метода

ШАГ 1: Собрать корпус — статьи, книги, главы эксперта
        → Загрузить в LLM (один чат или через загрузку файлов)

ШАГ 2: Извлечь reasoning-систему — попросить LLM выявить:
        - Как эксперт определяет ключевые понятия
        - Какие различия он считает критическими
        - Какие аргументы отвергает и почему
        - На какие теории и идеи опирается по умолчанию
        - Как устроена его логика доказательства
        → Получить структурированный «портрет мышления»

ШАГ 3: Собрать constraint-промпт — зафиксировать архитектуру
        мышления как набор явных инструкций для LLM
        → Получить «эксперт-бот»

ШАГ 4: Задать новую задачу — применить эксперт-бот к вашему вопросу
        → Получить ответ в логике конкретного мыслителя

Все шаги можно выполнить в одном чате с загрузкой файлов.

🚀

Пример применения

Задача: Ты строишь стартап в сфере edtech и хочешь разобрать свою идею так, как это сделал бы Аркадий Морейнис — известный российский трекер и акселератор, у которого сотни публикаций о стартапах, юнит-экономике и ошибках фаундеров.

Промпт (Шаг 2 → 3):

Я загружу несколько статей и постов Аркадия Морейниса (текст ниже).
Твоя задача — извлечь его reasoning-систему как аналитика стартапов.

Найди и структурируй:
1. Как он определяет "рабочую идею" vs "нерабочую" — его критерии и пороги
2. Какие различия он считает решающими (например: боль vs желание, 
   клиент vs пользователь, и т.д.)
3. Какие аргументы он автоматически отвергает как слабые — 
   его "паттерны отказа"
4. На какие концепции он опирается по умолчанию
5. Как устроена его логика разбора идеи — с чего начинает, 
   куда движется

После извлечения — стань аналитиком с этой reasoning-системой 
и разбери мою идею: [опиши идею].

[Вставить тексты Морейниса]

Результат: Модель сначала покажет структурированный «портрет мышления» — 5-7 блоков с конкретными критериями и логикой. Затем применит эту логику к вашей идее: укажет на слабые места именно теми словами и аргументами, которые характерны для Морейниса. Разбор будет не общим «ChatGPT-советом», а разбором в конкретной аналитической традиции.


🧠

Почему это работает

Почему обычный промпт «отвечай как Морейнис» не работает. LLM знает имя, знает общий стиль, но не знает архитектуру суждения: как именно этот человек определяет понятия до начала анализа, какие аргументы он считает категориальными ошибками, какую логику доказательства использует. Без этого — поверхностная имитация, а не мышление.

Что умеет LLM хорошо. Модель отлично распознаёт паттерны в больших массивах текста. Если один человек написал 30+ развёрнутых статей — его аналитические ходы повторяются: те же разграничения, те же отказы, та же последовательность рассуждений. LLM вычленяет эти паттерны лучше, чем большинство читателей.

Как метод закрывает разрыв. Вместо команды «будь как X» даётся явная структура мышления X — инструкции, извлечённые из самих текстов. LLM перестаёт угадывать стиль и начинает следовать зафиксированной логике. Именно поэтому в исследовании эксперты оценили результат выше «сильного академика вообще» — они узнали конкретную аналитическую традицию.

Рычаги управления: - Объём корпуса → чем больше текстов, тем точнее extraction. Минимум — 5-7 длинных статей - Специфичность задачи → метод работает лучше на структурированных задачах (оценить идею, дать обратную связь), хуже — на импровизационных (живой диалог, вопросы без формата) - Явность extraction → можно попросить LLM показать портрет мышления перед применением — тогда ты сам видишь и можешь скорректировать - Тип корпуса → лучше работает с аналитическими текстами (статьи, разборы), хуже — с художественными или purely rhetorical


📋

Шаблон промпта

Ниже — тексты {имя эксперта}. Изучи их и извлеки его reasoning-систему.

**Что нужно найти:**


Как {имя} определяет ключевые понятия в своей области. 
Найди формулировки которые повторяются — это его рабочие определения.



Какие различия он считает решающими и возвращается к ним снова и снова.
Что он разграничивает там, где другие смешивают?



По каким критериям он оценивает идеи, аргументы, решения как сильные или слабые.
Какие пороги качества он использует?



Какие аргументы он систематически отвергает. 
Что для него — "категориальная ошибка" или заведомо слабый ход?



Как устроена его логика рассуждения: с чего начинает анализ, 
какие вопросы задаёт первыми, куда движется.


После того как опишешь систему — стань аналитиком с этой 
reasoning-системой и применись к задаче: {задача}

---
ТЕКСТЫ:
{вставить статьи, посты, главы эксперта}

Плейсхолдеры: - {имя эксперта} — человек, чьё мышление клонируешь (Морейнис, Варламов, Фёдор Овчинников, любой автор в вашей сфере) - {задача} — что нужно разобрать: идея продукта, стратегия, текст, аргумент - {вставить тексты} — минимум 5-7 развёрнутых текстов эксперта


🚀 Быстрый старт — вставь в чат:

Вот шаблон для клонирования reasoning-системы эксперта. 
Адаптируй под мою задачу: [твоя задача]. 
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит: какого эксперта клонировать, какие тексты доступны, что нужно разобрать — потому что ей нужен корпус текстов и конкретная задача, чтобы extraction имел смысл.


⚠️

Ограничения

⚠️ Работает хуже на импровизации: structured tasks (оценить работу, дать рецензию, разобрать идею) — сильная зона. Живой диалог, ответы на неожиданные вопросы — слабее.

⚠️ Нужен достаточный корпус: на 2-3 коротких текстах extraction поверхностный. В исследовании использовали 35-68 аналитических единиц. В практике — минимум 5-7 длинных и разнообразных текстов одного автора.

⚠️ Клонируется relational tacit knowledge, не всё: метод захватывает явную логику рассуждений. «Телесная» экспертиза (интуиция, накопленный опыт, чувство поля) — за пределами метода. Но именно логика нужна в большинстве рабочих задач.

⚠️ Узкая выборка исследования: проверено на двух учёных-гуманитариях. Работает ли так же для предпринимателей, инженеров, журналистов — требует отдельной проверки.


💡

Адаптации и экстраполяции

🔧 Техника: добавить явный шаг верификации → проверить точность extraction

После того как LLM извлечёт reasoning-систему, добавь: «Теперь приведи 2-3 цитаты из текстов, которые подтверждают каждый из пунктов». Это делает extraction прозрачным и позволяет скорректировать неточности прежде чем применять к задаче.


🔧 Экстраполяция: клонирование не человека, а организации

Тот же принцип работает для организаций с последовательной публичной позицией. Загрузи годовые отчёты, публичные выступления, стратегические документы компании — и извлеки reasoning-систему организации. Применение: моделировать как конкурент отреагирует на ваш ход, как инвестор оценит предложение.


🔧 Экстраполяция: клонирование своего собственного мышления для масштабирования

Собери свои лучшие тексты, разборы, решения за год. Запусти extraction на самом себе. Получишь структурированное описание собственной аналитической логики — и промпт, который позволяет LLM отвечать в твоей системе координат. Ценно для делегирования задач LLM без потери стиля и подхода.


🔍

Как исследовали

Команда взяла двух реальных учёных-гуманитариев с международными публикациями — у первого обработали 68 аналитических единиц (~1742 страницы), у второго 35 источников (статьи, книги, главы). Из этих корпусов восьмишаговым методом извлекли reasoning-систему каждого и кодировали её как structured constraints для LLM с высоким reasoning-конфигом — фактически написали промпты, задающие архитектуру мышления конкретного учёного.

Интересен дизайн: для проверки использовали функции, где стандарты известны — рецензирование статей, научное руководство, лекции, академическая дискуссия. Три независимых старших учёных-эксперта написали 18 оценочных отчётов и 6 синтезов в формате «рекомендации на должность». Параллельно тестовый раунд провели с теми же задачами через обычный ChatGPT/Claude/Gemini как baseline — чтобы проверить, что результат не просто «сильный фронтиерный чат».

Самый острый момент: ни один из шести independent evaluators не поставил ни одному боту меньше уровня Senior Lecturer (примерный эквивалент — tenured Associate Professor в США). Нижний порог ставил самый строгий оценщик — и его аргумент был не «качество плохое», а «нет publication record и grant history». То есть содержательно работа засчитана, лимит — по формальным данным, которых у бота просто нет. Это показательно: боты не просто «прошли порог» — они прошли его с запасом.

Что удивительно: разные боты сохранили разные личности. Первый был силён в концептуальных границах и политической аналитике. Второй — в операционализации и педагогике. Ни один эксперт не описал их как одинаково «просто сильный академик» — они узнали конкретные аналитические традиции. Это говорит о том, что метод захватывает именно индивидуальную архитектуру, а не усреднённую компетентность.


🔗

Ресурсы

Название работы: The Relic Condition: When Published Scholarship Becomes Material for Its Own Replacement

Авторы: Lin Deng (University of New South Wales), Chang-bo Liu (Independent Researcher)

Контакт: cleo.deng@unsw.edu.au

Ключевые отсылки из исследования: Polanyi (1966) — tacit knowledge; Collins (2010) — три типа неявного знания; Autor (2015) — дополняемость труда и автоматизации; Crawford (2021) — AI и извлечение человеческого труда; CD Projekt Red (2020) / Gibson (1984) — концепция Relic как портативного сознания


📋 Дайджест исследования

Ключевая суть

Промпт «отвечай как [имя]» работает плохо. Не потому что LLM тупит — а потому что стиль и архитектура суждения — разные вещи. LLM знает имя, знает тон, но не знает как именно этот человек определяет понятия до начала анализа, какие аргументы считает заведомо слабыми, какую последовательность рассуждений использует. Relic Condition это исправляет: вместо команды «будь как X» — явная структура мышления X, извлечённая из самих текстов эксперта. Метод позволяет получить ассистента, который думает логикой конкретного мыслителя, а не угадывает его голос. В исследовании эксперты оценили результат выше «сильного академика вообще» — они узнали конкретную аналитическую традицию.

Принцип работы

У каждого, кто много и системно пишет, есть архитектура суждения — стабильный набор аналитических ходов. Как он определяет ключевые понятия. Что разграничивает там, где другие смешивают. Какие аргументы отвергает как категориальные ошибки. В разговоре эта архитектура почти невидима. В текстах — отчётливо видна: публикации и рецензирование буквально вынуждают автора делать логику прозрачной снова и снова. Прикол: LLM распознаёт повторяющиеся паттерны через 30+ статей лучше, чем большинство живых читателей. Модель вычленяет то, что сам автор никогда не формулировал явно, но делал всегда. Именно это и становится материалом для extraction.

Почему работает

Стандартный ролевой промпт активирует общее представление модели об авторе. Что-то среднее между стилем, репутацией и темами, которые с ним ассоциируются. Явные ограничения — конкретные инструкции, извлечённые из текстов самого эксперта — активируют конкретную логику. Модель перестаёт угадывать и начинает следовать зафиксированной структуре: как автор ставит вопросы, какие различия использует первыми, что считает достаточным доказательством. Чем объёмнее корпус, тем точнее extraction: в исследовании использовали 35–68 аналитических единиц на одного автора. На практике хватает 5–7 длинных разнообразных текстов — паттерны начинают повторяться, модель их вычленяет.

Когда применять

Для любого структурированного разбора — оценить идею стартапа логикой конкретного трекера, пропустить текст через критерии конкретного редактора, получить рецензию в духе конкретного эксперта. Особенно сильно работает когда нужен не общий совет, а фильтр конкретной аналитической традиции. Подходит для любой сферы, где у эксперта есть 5+ длинных аналитических текстов — разборы, статьи, подробные посты. Не подходит для живого импровизационного диалога: метод захватывает явную логику рассуждений, не интуицию и не накопленный опыт. И нужен корпус: на 2–3 коротких текстах extraction поверхностный.

Мини-рецепт

1. Собери корпус: минимум 5–7 длинных аналитических текстов одного автора — статьи, разборы, главы. Чем больше и разнообразнее, тем точнее.
2. Запроси extraction: загрузи тексты в чат и попроси LLM выявить — как эксперт определяет ключевые понятия, какие различия считает решающими, какие аргументы отвергает и почему, как устроена его логика рассуждения шаг за шагом.
3. Прочитай портрет до применения: попроси сначала показать извлечённую систему мышления — не сразу применять к задаче. Так ты видишь что получилось и можешь поправить до того, как модель пойдёт не туда.
4. Применяй к задаче: попроси LLM встать в позицию этой аналитической системы и разобрать твой вопрос. Получишь разбор в конкретной логике, а не общий ответ.

Примеры

[ПЛОХО] : Разбери мою бизнес-идею в edtech так, как это сделал бы Аркадий Морейнис
[ХОРОШО] : Ниже — тексты Аркадия Морейниса. Изучи их и извлеки его систему анализа стартапов: как он определяет рабочую идею vs нерабочую, какие различия считает решающими (боль vs желание, клиент vs пользователь и т.д.), какие аргументы отвергает автоматически и почему, как устроена его логика разбора — с чего начинает, какие вопросы задаёт первыми. Сначала покажи мне извлечённый портрет мышления. Потом встань в позицию этой аналитической системы и разбери мою идею: [описание идеи]. [Тексты]
Источник: The Relic Condition: When Published Scholarship Becomes Material for Its Own Replacement
ArXiv ID: 2604.16116 | Сгенерировано: 2026-04-20 05:26

Проблемы LLM

ПроблемаСутьКак обойти
Запрос «думай как X» клонирует стиль, не логикуПишешь «отвечай как Морейнис» или «думай как Талеб». Модель знает имя и общий тон. Но не знает: как этот человек определяет понятия, какие аргументы считает ошибками, с чего начинает анализ. Результат — поверхностная имитация. Специалист в этой области сразу почувствует подделкуСначала извлеки из текстов эксперта его логику явно. Попроси модель найти: как он определяет понятия, что отвергает, как строит рассуждение. Затем дай эту структуру как инструкцию. Модель будет следовать зафиксированной логике, а не угадывать стиль

Методы

МетодСуть
Двухшаговое извлечение логики эксперта из его текстовШаг 1. Загрузи 5+ развёрнутых текстов одного автора. Шаг 2. Попроси модель найти и структурировать: как он определяет ключевые понятия, какие различия считает решающими, какие аргументы отвергает как слабые, как строит логику доказательства. Получишь «портрет мышления». Шаг 3. Дай эту структуру как инструкцию и задай свой вопрос. Шаблон: Ниже тексты {эксперт}. Извлеки его reasoning-систему: определения понятий, ключевые различия, критерии оценки, паттерны отказа, последовательность анализа. Затем примени к задаче: {задача}. Тексты: {корпус}. Почему работает: Аналитические тексты публиковались под давлением рецензирования. Автор вынужден делать логику прозрачной снова и снова. Модель вычленяет паттерны из 30+ статей лучше, чем большинство читателей. Работает: оценить идею, дать рецензию, разобрать аргумент. Не работает: живой диалог, импровизированные вопросы без структуры. Минимум корпуса: 5–7 длинных аналитических текстов одного автора

Тезисы

ТезисКомментарий
Публикации делают неявную логику явной — это и есть источник для извлеченияВ разговоре эксперт не объясняет свои базовые допущения. В статье — вынужден. Рецензенты требуют обосновать определения, разграничить понятия, объяснить почему отвергаешь альтернативы. После 30+ публикаций этот след хорошо виден в тексте. Модель находит повторяющиеся ходы: те же различия, те же отказы, ту же последовательность. Применяй: ищи авторов с большим корпусом аналитических текстов. Блогеры-практики с сотнями разборов подходят так же, как учёные
📖 Простыми словами

The Relic Condition: When Published Scholarship Becomes Material for Its Own Replacement

arXiv: 2604.16116

Суть в том, что любой системный автор оставляет в текстах не просто слова, а архитектуру своего мышления. Исследователи назвали это Relic Condition: когда твои публикации превращаются в детальный чертеж, по которому LLM может собрать твоего «интеллектуального двойника». Модель не просто копирует словечки или шутки, она заимствует саму логику принятия решений — то, как ты связываешь факты, какие аргументы считаешь железными, а какие — мусором. Твои тексты становятся сырьем для создания инструмента, который в итоге может тебя заменить.

Это как если бы великий шахматист годами записывал не только ходы, но и мысли в духе: «я всегда атакую, если у противника слабая пешка на G2». В итоге мы получаем не просто запись игры, а алгоритм действий. Если скормить этот массив данных нейронке, она перестает играть «в среднем по больнице» и начинает выдавать ходы именно в стиле этого мастера. Формально играет машина, но логика в ней — живого человека, который сам же этот код и написал, даже не подозревая об этом.

Обычный промпт вроде «отвечай как Аркадий Морейнис» — это полная фигня и поверхностная имитация. Модель просто накидает типичных словечек про юнит-экономику, но провалится на первом же сложном вопросе. Чтобы это реально работало, нужно вытащить категориальный аппарат: как автор определяет понятия и какие логические ошибки он видит в чужих рассуждениях. Только когда LLM понимает, почему конкретный аргумент для этого эксперта — категориальная ошибка, а не просто «плохое мнение», она начинает выдавать результат уровня оригинала.

Этот принцип Relic Condition универсален и применим к любому, кто оставил после себя цифровой след: от топовых инвесторов до узкопрофильных инженеров. Исследование показывает, что мы переходим от эпохи «чтения текстов» к эпохе извлечения когнитивных моделей. Теперь не нужно перечитывать сотни статей эксперта, чтобы понять его позицию по новому вопросу — достаточно запустить его «цифровой слепок», который проанализирует ситуацию с точностью 9 из 10.

Короче, твои знания больше не принадлежат только тебе, если они опубликованы. Тексты стали кодом, который любой может запустить в ChatGPT, чтобы получить твою экспертизу без твоего участия. Это одновременно и дикий рывок в продуктивности, и огромный риск: зачем нанимать дорогого консультанта, если его интеллектуальный двойник уже живет в облаке и отвечает мгновенно? Кто первым научится кодировать чужое мышление в промпты, тот получит доступ к мозгам всей планеты.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с