TL;DR
Idea-Catalyst — техника структурированного поиска идей через аналогии из далёких областей. Работает по простому принципу: любую сложную проблему можно переформулировать в универсальные термины — и тогда решения, найденные в биологии, психологии или педагогике, вдруг оказываются применимы к вашей задаче в маркетинге или разработке продукта.
Главная боль: Мы застреваем в своей области. Предприниматель, который думает "как снизить отток пользователей", читает про retention в SaaS — и ходит кругами по одним и тем же идеям. LLM делает то же самое: когда ей задают вопрос в терминах конкретной области, она отвечает в терминах той же области. Получается умный, но банальный ответ.
Метод разрезает эту петлю в два хода. Сначала проблему переводят в универсальный язык — убирают отраслевой жаргон и оставляют суть концептуальной трудности. Потом ищут, кто уже решал эту же суть в совершенно других областях. Вопрос "как удерживать вовлечённость при снижении новизны?" — это уже не про SaaS, это про поведение в любой системе. А значит, можно брать идеи из педагогики, спортивной психологии, теории игр.
Схема метода
(5 шагов в одном промпте или по одному запросу на шаг)
ШАГ 1: Декомпозиция → 3–5 исследовательских вопросов по проблеме
Каждый вопрос = предметная формулировка + универсальная формулировка
ШАГ 2: Оценка зрелости → маркировка вопросов:
решено / частично решено / открыто
Приоритет — "открытые" и "частично решённые"
ШАГ 3: Поиск далёких аналогий → для слабо решённых вопросов
(через универсальную формулировку) — 3–4 дисциплины,
ДАЛЁКИЕ от вашей области
ШАГ 4: Извлечение инсайтов → что именно найдено в каждой дисциплине,
механизм/принцип и логика работы
ШАГ 5: Перенос + ранжирование → инсайты переформулируются в вашу область,
упорядочиваются по потенциалу прорыва
Полный цикл можно запустить одним длинным промптом или постепенно — шаг за шагом в диалоге.
Пример применения
Задача: Нужно придумать нестандартный подход к монетизации Telegram-канала про инвестиции. Стандартные идеи (реклама, платный контент, курсы) уже у всех. Хочется что-то, от чего аудитория не убежит.
Промпт:
Помоги найти нетривиальные идеи для монетизации Telegram-канала
про инвестиции — методом межотраслевой аналогии.
**Шаг 1 — Декомпозиция:**
Разбей задачу "монетизация аудитории без потери доверия и вовлечённости"
на 4–5 ключевых вопросов. Для каждого дай две формулировки:
- Предметная: в терминах медиа и подписочного бизнеса
- Универсальная: без жаргона, только суть концептуальной проблемы
(как если бы объяснял биологу или педагогу)
**Шаг 2 — Оценка зрелости:**
Для каждого вопроса отметь: это уже хорошо решено в индустрии,
частично решено, или остаётся открытым?
Выбери 2 наиболее слабо решённых вопроса.
**Шаг 3 — Далёкие аналогии:**
Для каждого слабо решённого вопроса (используй универсальную формулировку):
- Найди 3 дисциплины, ДАЛЁКИЕ от медиабизнеса,
которые сталкивались с похожей концептуальной проблемой
- Не бери смежные области (маркетинг, PR, другие медиа)
**Шаг 4 — Инсайты:**
Для каждой дисциплины: что именно там изучали,
какой механизм или принцип нашли, почему он работает?
**Шаг 5 — Перенос и ранжирование:**
Переформулируй каждый инсайт в контекст Telegram-канала
про инвестиции. Предложи конкретные форматы или механики
монетизации. Упорядочи от самого неожиданного к самому очевидному.
Результат: Модель пройдёт все пять шагов и покажет их явно. На первом шаге вопросы типа "как брать деньги, не нарушая доверие?" превратятся в универсальные: "как сохранить воспринимаемую нейтральность источника при коммерческом интересе?". На третьем шаге появятся дисциплины вроде медицинской этики, академической науки или профессионального спорта — там эту же дилемму решали десятилетиями. На пятом шаге придут конкретные идеи: не "продавай рекламу", а механики разделения ролей, системы раскрытия конфликта интересов, модели "гонорара за экспертизу" из медицины — применённые к инвест-каналу.
Почему это работает
LLM застревает в семантическом поле задачи. Когда вы спрашиваете про удержание пользователей — модель активирует слова из этой темы и генерирует их комбинации. Это не ошибка, это то, как работает языковое предсказание. Результат: умный, но предсказуемый ответ.
Переформулировка в универсальные термины — это смена контекста поиска. Вопрос "как сохранить доверие при коммерческом давлении?" активирует совсем другое семантическое поле — юридику, медицину, педагогику, журналистику. Там накоплены решения, которые в SaaS-контексте никто не догадался применить.
Рычаги управления: - Удалённость дисциплин — чем дальше от вашей области, тем неожиданнее идеи. Попросите явно: "только дисциплины, которые не связаны с маркетингом и бизнесом" - Количество вопросов — 3 вопроса дают глубину, 7 — широту. Для быстрого брейншторма берите 3 - Фокус оценки зрелости — если пропустить Шаг 2, LLM будет искать аналогии для всего подряд, включая то, что уже давно решено. Шаг 2 отсекает тривиальные вопросы - Явное исключение смежных областей — добавьте в промпт "не бери из [смежная область]", иначе модель пойдёт по пути наименьшего сопротивления
Шаблон промпта
Помоги найти нетривиальные решения для задачи {задача}
в области {моя_область} — методом межотраслевой аналогии.
**Шаг 1 — Декомпозиция:**
Разбей задачу на {число} ключевых вопросов.
Для каждого дай две формулировки:
- Предметная: в терминах {моя_область}
- Универсальная: без жаргона, только концептуальная суть
**Шаг 2 — Оценка зрелости:**
Для каждого вопроса: решено / частично решено / открыто
в {моя_область}?
Выбери {число_открытых} наиболее слабо решённых вопроса
для дальнейшего анализа.
**Шаг 3 — Поиск аналогий:**
Для каждого слабо решённого вопроса
(используй универсальную формулировку):
- Найди {число_дисциплин} дисциплины, ДАЛЁКИЕ от {моя_область}
- Исключи: {исключённые_области}
- Объясни, почему каждая дисциплина сталкивалась
с похожей концептуальной проблемой
**Шаг 4 — Инсайты из каждой дисциплины:**
Для каждой:
- Что конкретно изучали или решали?
- Какой механизм или принцип нашли?
- Почему он работает (логика, не только факт)?
**Шаг 5 — Перенос в мою область:**
Переформулируй каждый инсайт в контекст {задача}.
Предложи конкретные подходы или механики.
**Шаг 6 — Ранжирование:**
Упорядочи идеи от самой неожиданной к самой очевидной.
Отметь, какая имеет наибольший потенциал для прорыва и почему.
Что подставлять:
- {задача} — конкретная проблема: "снизить отток платных подписчиков"
- {моя_область} — ваша сфера: "EdTech", "юридические услуги", "B2B SaaS"
- {число} — обычно 4–5 вопросов оптимально
- {число_открытых} — 2–3, больше не нужно
- {число_дисциплин} — 3–4 на каждый вопрос
- {исключённые_области} — смежные с вашей: "маркетинг, продажи, бизнес-стратегия"
🚀 Быстрый старт — вставь в чат:
Вот шаблон Idea-Catalyst для поиска нестандартных решений
через межотраслевые аналогии. Адаптируй под мою задачу:
[твоя задача]. Задавай уточняющие вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит о вашей области, конкретной задаче и каких областей избегать — потому что без этого она выберет смежные дисциплины и вернёт банальные аналогии вместо прорывных.
Ограничения
⚠️ Нет доступа к живой литературе: В чате LLM работает из обучающих данных, не из реальной базы статей. Это ограничивает глубину инсайтов — особенно для узких или свежих тем. Для нишевых областей с небольшим корпусом текстов в обучении модели инсайты могут быть менее точными.
⚠️ Только для стадии идей, не реализации: Метод намеренно останавливается до проверки выполнимости. Если нужен готовый план действий — это не тот инструмент. Это инструмент для брейншторма, а не для оценки.
⚠️ Простые и хорошо решённые задачи — не для этого: Если ваша проблема уже имеет очевидные решения, межотраслевая аналогия даст избыточно сложный ответ там, где достаточно прямого. Метод работает на задачах с реальной концептуальной сложностью.
⚠️ Шаг 2 легко пропустить — и потерять эффект: Без оценки зрелости LLM ищет аналогии для всего подряд, включая давно решённые вопросы. Шаг 2 — ключевой фильтр. Не срезайте.
Как исследовали
Команда из Иллинойса собрала задачи из нескольких научных областей — Computer Science, Biology, Public Health, Education — и сравнила идеи, которые генерирует обычный LLM, с идеями, которые даёт Idea-Catalyst. Оценивали по четырём критериям: новизна, содержательность, релевантность и полезность. Оценщики — и другие LLM, и живые люди-эксперты.
Интересная деталь дизайна: систему намеренно строили так, чтобы она не торопилась к конкретным решениям. Многие предшественники — типа AI Scientist — сразу переходят к экспериментальному плану. Здесь этот шаг принципиально убрали, потому что преждевременная конкретика "обрезает разговор" и загоняет в инкрементальные улучшения.
Результат: +21% по новизне, +16% по содержательности по сравнению с обычной генерацией идей через LLM — при сохранении релевантности исходной задаче. Это нетривиально: обычно рост новизны снижает релевантность. Здесь удалось сохранить обе.
Ключевой инсайт из результатов — универсальная переформулировка оказалась решающим элементом. Без неё модель уходила в смежные поля. С ней — находила структурно аналогичные проблемы в по-настоящему далёких дисциплинах.
Адаптации и экстраполяции
🔧 Техника: "Адвокат дьявола из другой области" → острее критика идеи
После Шага 5 добавьте: "Теперь представь, что эксперт из {чужая_дисциплина} смотрит на эту идею. Что он скажет — почему аналогия неполная, где принцип не перенесётся?"
Это запускает второй цикл критики, который выявляет слабые места переноса ещё до реализации.
🔧 Экстраполяция: применить до начала продуктовой разработки
Метод работает не только для исследований. Применяйте его на стадии поиска Jobs to Be Done: "Какую концептуальную проблему решает наш продукт в универсальных терминах?" → "Кто ещё решал её в другой области?" → "Какую бизнес-модель они использовали?". Это способ найти неочевидные монетизационные аналогии.
Ресурсы
Название: Sparking Scientific Creativity via LLM-Driven Interdisciplinary Inspiration
Авторы: Priyanka Kargupta, Shuhaib Mehri, Dilek Hakkani-Tur, Jiawei Han
Организация: Siebel School of Computing and Data Science, University of Illinois at Urbana-Champaign
Ресурсы: - Страница проекта - Репозиторий - Датасет
