4 874papers
Получить PRO
Промпт-инженеринг на основе науки

Почти 5 000 промпт-техник из научных исследований

Платформа для тех, кто использует LLM серьёзно. Каталог разобранных научных статей, AI-подборка методов под вашу задачу, ежемесячные дайджесты лучшего за месяц и готовые промпты для адаптации.

4 874
разобранных статей
+300–400
новых техник в месяц
60–180 сек
ответ Research Finder
Раздел 01 · Отбор

Как мы отбираем исследования

Учёные из MIT, Stanford, Google Research, Anthropic публикуют исследования на arXiv.org. Мы автоматически собираем всё, что касается работы с LLM, и пропускаем через многоступенчатый AI‑фильтр.

3 400статей в месяц
Автосбор с arXiv по 7 категориям (cs.CL, cs.AI, cs.LG…). Всё, что вышло за месяц по теме LLM и промптинга.
870прошли скрининг
LLM‑скрининг по аннотациям. 20 параллельных воркеров. 75% отсеяно: дубли, теоретические работы, не про промптинг.
395проанализированы
Глубокий анализ полного текста PDF. Claude Sonnet генерирует саммари ~12 000 символов на каждую статью.
~290попадают на платформу
Рейтинг ≥ 70 из 100. Обогащение в 5 форматов, авто‑деплой каждые 5 минут. Итого — 8% от собранного.
30–40идей в месяц
Многоступенчатая RAG‑фильтрация на Claude Opus. Из ~290 статей за 9 проходов выжимаются оригинальные идеи (без переоткрытий и пересказов чужого). На выходе — эссе‑лонгрид месяца, топ‑выборка и полный концепт‑каталог (см. Раздел 08).
Бюджет на AI‑обработку — ~$590 / месяц. Claude Sonnet — глубокий анализ каждой статьи ($234 / месяц). Claude Opus — многоступенчатая RAG‑выжимка идей для месячных эссе и топ‑выборок.
Раздел 02 · Принципиальная разница

Промптинг — это не взлом нейросети.
Это способ понять самого себя.

Вы говорите ChatGPT или Claude: «напиши промпт под мою задачу». Модель напишет — она для этого и создана. Но есть две проблемы: она не до конца понимает, что именно вам нужно, и вы сами часто этого не знаете. Модель достаёт то, что лежит у неё на поверхности — общие приёмы из тех материалов, на которых её учили. Свежие исследования последних месяцев — слепое пятно. Получается «средний» промпт. Не плохой — но и не сильный.

Самое полезное в науке промптинга — не общие принципы, а узкие контринтуитивные находки. Их модель не вытащит сама: вы не знаете о них, чтобы спросить, а модель не знает, что они применимы к вашей задаче. Это классический парадокс: вы не знаете чего не знаете.

Если нейросеть «глючит» на вашей задаче — проблема обычно не в ней. Это сигнал, что вы сами не до конца знаете, что вам нужно. Научные техники не «взламывают» модель — они структурируют ваше мышление до такого уровня детализации, на котором задача становится решаемой.

Принцип Nova Sapiens · март 2026

За последние 3 месяца на платформу попали ~870 статей. Из них в финальные эссе и топ‑выборки прошли 30–40 идей в месяц. Ниже — шесть таких «невидимых» находок: каждая опирается на конкретное исследование с arXiv‑ID, и ни одну из них ChatGPT не предложит сам, если вы прямо не спросите.

Подборка из эссе января, февраля, марта 2026

6 находок последних 3 месяцев

Каждая опирается на конкретное исследование с arXiv‑ID. Ни одну из них ChatGPT не предложит сам, если вы прямо не спросите — потому что вы не знаете о них чтобы спросить.

Роль меняет всё · март 2026

Скептик ловит угроз в 100 раз больше, чем «помощник»

Одна фраза «ты — скептик, ошибайся в сторону осторожности» в system‑промпте меняет вероятности каждого токена в ответе.

Как работает

LLM — оптимизатор соответствия контексту. После «полезный ассистент» статистически вероятнее помощь, поиск плюсов. После «скептик» — сомнение, риски, отказ. Это не инструкция поверх задачи — это смещение базовых вероятностей.

При роли «помощник»: 97% упущенных угроз. При роли «скептик»: 0.8%.
Эссе марта 2026 · arXiv 2603.16734
Контринтуитивно · март 2026

CoT на задачах выбора — минус 16 процентных пунктов

«Думай шаг за шагом» — золотой стандарт для сложных задач. Но на «выбери A, B или C» — делает выбор хуже, не лучше.

Как работает

Модель пишет длинное рассуждение; к финальному ответу исходная задача уже глубоко в начале диалога. Модель отвечает на собственные рассуждения, а не на вопрос. На классификацию и ранжирование лучше работают few‑shot примеры.

CoT на задачах выбора: −16 п. п. точности против few‑shot без CoT.
Эссе марта 2026 · arXiv 2603.25944
Контринтуитивно · февраль 2026

Обрезанный CoT хуже, чем его отсутствие

При лимите токенов кажется, что «частичное рассуждение» лучше «никакого». На практике — наоборот.

Как работает

Если урезать рассуждение, оно становится неполным и запутанным. Модель теряет логику на половине, ответ опирается на оборванные выводы. Либо дайте достаточный бюджет на полное CoT, либо отключите его и спросите прямо.

Gemini с обрезанным CoT: 17% точности. Без рассуждения, прямой ответ: 67%.
Эссе февраля 2026 · arXiv 2602.14444
Архитектура мешает · январь 2026

Порядок «Вопрос → Варианты → Контекст» режет точность на 15–25%

На многоступенчатом выборе и ранжировании порядок блоков в промпте важнее формулировок.

Как работает

Decoder‑only модели (GPT, Claude) используют causal mask: каждый токен видит только предыдущие. Когда варианты идут до контекста, модель обрабатывает их вслепую. Решение: формат «Контекст → Вопрос → Варианты» (CQO). Если структура требует QOC — повторите варианты после контекста, тогда модель использует вторые.

Падение на 15–25% при QOC. Повтор вариантов после контекста: +8%.
Эссе января 2026 · arXiv 2601.14152
Токенизатор не знает · январь 2026

Цифры в редких скриптах теряют 87% точности

Персидские цифры (۱, ۲), индийская группировка (9,22,436), арабская нотация — модель «видит» их как наборы случайных символов, а не числа.

Как работает

Токенизатор встречает редкий символ редко, разбивает его на много подтокенов. Модель не связывает визуальный паттерн с числовым значением. Решение: дайте явный маппинг «۱=1, ۲=2» в промпте или 2–3 few‑shot примера.

Без маппинга: −66 до −87% точности на арифметике. С маппингом — почти как с латиницей.
Эссе января 2026 · arXiv 2601.15251
Универсальный приём · март 2026

Выбор и анализ — разные шаблоны

Перед промптом спросите себя: это выбор из вариантов или анализ явления? От ответа зависит две противоположные стратегии.

Как работает

Для выбора (классификация, ранжирование): few‑shot без CoT — примеры «задача → ответ» показывают формат. Для анализа (объяснение, разбор): CoT с явной структурой — шаг за шагом, потому что задача требует логики.

На выборе: few‑shot без CoT даёт +16 п. п. На анализе: CoT + структура существенно выше.
Эссе марта 2026 · arXiv 2603.25944
~870 статей за последние 3 месяца → 30–40 идей в финальные дайджесты. Полный список — в Разделе 08.
Когда ChatGPT пишет вам промпт
  • опирается на общие приёмы из своих учебных материалов
  • знает только то, что было до момента её обучения (как правило, 2024)
  • не знает узких контринтуитивных находок последних месяцев
  • не умеет проверить себя на вашей конкретной задаче

вы получаете средний промпт уровня «и так подойдёт»

Когда мы рекомендуем технику
  • опираемся на 4 800+ статей с arXiv последних месяцев
  • достаём узкие находки, которые модель не вытащит сама
  • каждая рекомендация — со ссылкой на конкретное исследование
  • расширяем вашу карту того, что вообще возможно в промптинге

вы узнаёте то, чего не знали что не знаете

Ремарка автора

Откуда вообще берутся эти знания

Все эти приёмы существуют благодаря тому, что крупные лаборатории и технологические компании платят учёным зарплаты, выдают гранты, финансируют университеты. То, что мы видим в виде статей на arXiv — это результат миллиардных инвестиций индустрии в понимание собственного инструмента.

Научное сообщество принципиально открыто: исследования публикуются бесплатно, без подписок и paywall‑ов. Любой может зайти и читать. Но вручную фильтровать ~3 400 статей в месяц, понимать какие — пустые, какие — переоткрытия, какие — оригинальные находки — это отдельная работа на 50+ часов в месяц.

Я построил эту воронку для себя — чтобы напитываться практикой ежедневно и не тонуть в потоке. Теперь даю возможность подключиться к ней за подписку. Дешевле часа работы аналитика — а на выходе вы получаете то же, что и я: фильтрованную выжимку всего, что индустрия открыла за месяц.

— Александр Сухов, автор Nova Sapiens
Раздел 03 · Главная функция платформы

AI‑поиск

Не просто находит — исследует вашу задачу
за 60–180 секунд · ~3 N‑токена · бесплатно при регистрации

Это главная функция платформы — то, ради чего всё остальное и собрано. Каталог и дайджесты — это хорошо: читай, накапливай, следи за новинками. Но оперировать всем этим быстро под конкретную задачу — задача другого порядка. Вот для неё и сделан AI‑поиск.

60–180 сек
AI‑поиск прогоняет вашу задачу через многоступенчатый пайплайн, спроектированный по свежим исследованиям про работу с базами знаний (RAG, дeкомпозиция, реранкинг). То есть и инструмент, и платформа развиваются из одного источника.
86 000+
семантических фрагментов в векторной базе Qdrant. Реранкер на основе LLM оценивает релевантность каждого фрагмента не по ключевым словам, а по смыслу. Это нельзя сделать обычным поиском.
→ ваш AI
На выходе — не список ссылок, а плотный готовый контекст: рекомендации по техникам, готовые промпты, ссылки на оригиналы. Можно вставить в чат с ChatGPT, скормить AI‑агенту как системный ввод или встроить в собственный процесс.

Ниже — пять шагов: что именно происходит между «описал задачу» и «получил готовый разбор».

Шаг 01

Описываете задачу

Свободным текстом, без подбора ключевых слов. AI сам декомпозирует запрос на 7-15 подзадач и генерирует поисковые запросы под каждую.

Методы под задачу Проблемы и ошибки LLM

70 примеров запросов для вдохновения. 2 режима поиска под разные ракурсы.

Шаг 02

Система ищет и ранжирует

Поиск по векторной базе Qdrant. Ранжирование через Reciprocal Rank Fusion + LLM‑реранкер. Результат: 5–25 статей с оценками релевантности и развёрнутыми описаниями каждой.

Шаг 03

Уточняете направление

Система показывает подзадачи в виде чекбоксов. Отмечаете нужные — «Искать глубже» — получаете дополнительные нишевые статьи.

Вы не знали что искать — система показала варианты — вы уточнили — получили точный результат.

Шаг 04

AI‑разбор по найденным статьям

Методичный разбор или эссе‑лонгрид. Выбор модели: Claude Sonnet (~33 N‑т, глубокий) или Gemini Flash (~1 N‑т, быстрый). Опция «Сразу делать промпты» генерирует готовые промпты из найденных техник.

Шаг 05

Дополняете и скачиваете

После разбора пишете уточнение — «больше про практику» или «а для e‑commerce?». Система делает новый поиск по уточнению и дополняет разбор без повторов.

Каждый поиск сохраняется в истории. Можно вернуться, скачать HTML, запустить повторный анализ с другой моделью.

Раздел 04 · Эталонный кейс

Один реальный запрос —
три формата выдачи

Ниже — настоящий пример того, как Research Finder отрабатывает один и тот же запрос в разных режимах: «Методы под задачу», «Проблемы и ошибки LLM» и методичный разбор. Это не демо — это полная выдача системы на юридический запрос пользователя.

Эталонный кейс · 3 формата выдачи

Анализ договора подряда на риски

«Проанализируй договор подряда на риски — какие пункты опасны для исполнителя. Конкретные рекомендации какой пункт что значит и как его переформулировать.»
Подходит для этой задачи

Поиск: «Методы под задачу»

Это базовый формат поиска. Research Finder ищет в 4800+ исследованиях научные приёмы, которые подходят именно для анализа договора: ролевые модели, multi-agent council, проверка на галлюцинации, структурный разбор по осям.

Найдено 10 статей ·

Полезно как дополнение

Поиск: «Проблемы и ошибки LLM»

Альтернативный пайплайн — ищет статьи про типичные сбои моделей в похожих задачах. Для договорного анализа этот режим менее критичен, чем «Методы»: основная польза — подсветить риск галлюцинаций при цитировании норм, который специфичен для LLM.

Найдено 10 статей ·

Глубинный AI-разбор

Методичный разбор · движок Standard

Связное эссе на 15,146 симв. Разбивает задачу на 3 подзадачи — «не пропустить пункт», «понять механику риска», «получить переформулировку» — и для каждой даёт научно-валидированный метод. В конце — готовый сводный промпт.

124 сек $0.254

Практическое руководство: анализ договора подряда на риски для исполнителя

---

Стратегия решения

Диагноз задачи. У вас три взаимосвязанные подзадачи: (1) не пропустить ни один опасный пункт, (2) понять механику риска — как именно пункт может навредить, (3) получить конкретную альтернативную формулировку, а не общий совет «это плохо». Стандартный запрос «проверь договор» закрывает только первую задачу, и то частично — модель идёт по наиболее вероятному пути и молчит о том, что не попало в фокус.

Карта методов. Для задачи (1) — полного охвата рисков — используем LLM Council: совет из трёх экспертов с разными углами зрения (юрист по договорным спорам, финансовый директор, арбитражник). Каждый входит в текст со своей точкой входа — юрист видит формулировки, финансист видит денежные потоки, арбитражник видит то, что невозможно доказать в суде. То, что один пропустит — заметит другой. Для задачи (2) — механики риска — используем структуру из Context Overload: бинарная позиция (риск есть/нет) плюс пять осей объяснения (тип / место / причина / сценарий / исправление). Для задачи (3) — конкретных переформулировок — добавляем единый запрос на поиск и характеристику: находим проблему и сразу получаем альтернативу, не разбивая на два запроса.

Синергия. Сначала LLM Council даёт полный охват — три эксперта находят всё, что можно пропустить. Это создаёт список рисков как промежуточный результат. Затем структура пяти осей из Context Overload превращает каждый риск из «этот пункт плохой» в «вот конкретная фраза, вот как её используют против вас, вот как переписать». Вместе они закрывают полный цикл: нашли → поняли → исправили.

Чего ожидать. По данным исследований, совет из нескольких экспертов ловит 44–60% рисков, которые одиночный запрос пропускает молча. Структура пяти осей даёт конкретные переформулировки вместо общих комментариев. Итог: не «договор рискованный», а «пункт 4.2, фраза "по усмотрению заказчика" — вот три сценария как это используют, вот альтернативная редакция».

---

Как не пропустить ни один опасный пункт

Совет трёх экспертов (LLM Council)

Механика. Модель, отвечая в одиночку, идёт по наиболее вероятному пути и остаётся на нём — нет механизма спросить себя «а что я пропустил?». Принудите ⟶

Ещё два кейса · компактно
Бизнес · Продажи

B2B-стратегия SaaS

«Разработай стратегию B2B-продаж SaaS-продукта в сегменте малого бизнеса.»

10 релевантных статей
18,265 симв. в разборе
154 сек на генерацию

---…

Промпт-инжиниринг

Мульти-агентная система

«Спроектируй мульти-агентную систему: редактор + фактчекер + редакционный директор.»

10 релевантных статей
19,460 симв. в разборе
154 сек на генерацию

---…

Раздел 05 · Контент

Каждая статья — в 5 форматах

Одно и то же исследование можно прочитать по‑разному, в зависимости от задачи.

S

Полное саммари

Академический разбор: метод, эксперименты, результаты, ограничения. Для тех, кто хочет разобраться в деталях.

~12 000 символов · Summary
D

Дайджест

Ключевое открытие + принцип работы + мини‑рецепт. Для быстрого сканирования за 90 секунд.

~2 000 символов · Digest
C

Концепты

Структурированные данные: проблемы, методы, тезисы. Используются для семантического AI‑поиска.

86 000+ фрагментов · Concepts
П

Простыми словами

Объяснение без терминов. Если нужно быстро понять, стоит ли читать дальше.

~3 000 символов · Simple
A

Адаптация под задачу

AI перерабатывает исследование под ваш конкретный контекст и генерирует готовые промпты на основе описанных техник. Работает по запросу: описываете задачу — получаете результат за 60 секунд. Экспорт в HTML/PDF.

on‑demand · 60 сек · 3–35 N‑т · Adaptation
Раздел 06 · Усиление промптов

Prompt Booster

Не ищет статьи — чинит ваш промпт
PEEM‑аудит по 8 критериям · 60–120 секунд · 3–35 N‑токенов

Если у вас уже есть промпт, который не даёт желаемого результата — Booster запускает PEEM‑аудит вашего промпта по 8 критериям, выявляет конкретные слабые места, задаёт уточняющие вопросы и переписывает его с опорой на научные техники.

Открыть Prompt Booster novasapiens.ru/prompt‑boost
На каких исследованиях работает Booster

Booster не импровизирует: каждое предложение по улучшению ссылается на конкретное исследование с arXiv-ID. Открытие модалки «развёрнутая критика» внутри даёт полный отчёт со ссылками.

Шаг 1 · Ваш промпт
Разработай B2B стратегию SaaS-продукта для малого бизнеса. Нужны каналы привлечения, ценообразование и план продаж.

Сырой промпт типичного пользователя — ровно так, как обычно пишут «дай стратегию».

Шаг 2 · PEEM‑аудит
Средний балл: 1.9/5 · тип: strategic
КритерийБаллОбоснование
Ясность задачи3/5Задача обозначена («B2B стратегия SaaS»), но не уточнено: на каком этапе компания (pre-PMF / post-PMF / scale), какой ICP, какой ARPU.
Точность формулировок2/5«Малый бизнес» — слишком широкий сегмент: SMB $10–50 ARR vs Mid-Market $50–500 ARR — это разные стратегии каналов и ценообразования.
Нейтральность5/5Промпт не навязывает выводов («сделай PLG» или «надо outbound») — модель свободна выбрать стратегию.
Роль и контекст1/5Роль не задана. Модель ответит «как Википедия»: общие фреймворки без операционной глубины. Нужен VP Marketing или CMO с опытом growth.
Формат вывода1/5Что вы ожидаете на выходе: roadmap-таблица, P&L прогноз, презентация для борда, или execution-план на 90 дней? Без структуры — модель выдаст эссе.
Примеры (few-shot)1/5Нет примера, как должен выглядеть один канал привлечения с CAC, LTV, payback. Без эталона модель не знает уровень детализации.
Ограничения1/5Не заданы границы: бюджет (по месяцам), команда (есть ли SDR), горизонт (3 vs 12 мес), география. Без них стратегия — «всё для всех».
Конкретность2/5«Каналы привлечения» — без unit economics. Каждый канал должен быть бизнес-юнитом с CAC target, payback period, expected MRR contribution.
Уточняющие вопросы Booster:
  1. На каком этапе ваш SaaS?
    • Pre-seed / seed (поиск PMF, <$500K ARR)
    • Post-PMF, ранний рост ($500K–3M ARR)
    • Scale-up ($3M–20M ARR)
    • Mature ($20M+ ARR)
  2. Какой ICP (Ideal Customer Profile)?
    • SMB ($10–100K ARR на клиента, 5–50 сотрудников)
    • Mid-Market ($100K–500K ARR, 50–500 сотрудников)
    • Enterprise ($500K+ ARR, 500+ сотрудников)
    • Hybrid (SMB + Mid-Market)
  3. Какой формат стратегии вы хотите получить?
    • Roadmap-таблица (каналы, owner, KPI, deadline)
    • 90-day execution plan (sprint goals, dependencies)
    • P&L прогноз с unit economics
    • Презентация для борда (3–5 слайдов)
  4. Какой бюджет на growth и команда?
    • $0–10K/мес, founder-led, без sales team
    • $10–50K/мес, 1 marketer + 1 SDR
    • $50–200K/мес, полная growth-команда
    • Не ограничено — нужны рекомендации по allocation
Шаг 3 · Усиленный промпт
<role>
Ты — VP Marketing с 10+ летним опытом в B2B SaaS, сегмент Mid-Market ($100–500K ARR на клиента). Специализация — выход на product-market fit и масштабирование от $1M до $10M ARR. Анализируй с позиции data-driven маркетолога, который оперирует unit economics, а не теоретика, который повторяет фреймворки.
</role>

<rules>
HC-1: Не предлагай канал без CAC target, payback period и expected MRR contribution. Каждый канал = бизнес-юнит с unit economics.
HC-2: Не используй формулировки «выходим на широкий рынок» / «таргетируем малый бизнес». Каждое утверждение опирается на конкретный ICP, размер сегмента и ARPU.
HC-3: Опирайся на public benchmarks (OpenView SaaS Benchmarks 2025, ChartMogul, SaaS Capital). Без выдуманных цифр.

CP-1: Если ARPU не указан — считай $200–500/мес для SMB, $2K–10K/мес для Mid-Market.
CP-2: Если этап не указан — считай post-PMF, $1–3M ARR, growth velocity 2–3x YoY.
CP-3: Если бюджет не указан — считай $30K/мес на growth, команда из 1 marketer + 1 SDR.
</rules>

<task>
Разработай go-to-market стратегию B2B SaaS для указанного сегмента и этапа.

Структура ответа:
1. ICP-сегментация (3 sub-persona с TAM/SAM/SOM по сегменту)
2. Каналы привлечения (4 канала с приоритизацией по ICE: Impact × Confidence × Ease)
3. Pricing-модель (3-tier с competitive positioning против 2 топ-конкурентов)
4. Sales motion (PLG vs Sales-led vs Hybrid с обоснованием по ICP+ARPU)
5. 90-day execution plan (sprint goals, KPI, ключевые dependencies)

Для каждого канала обязательно:
— CAC target ($)
— Payback period (месяцев)
— Expected MRR contribution через 90 дней
— Топ-2 риска и mitigation
</task>

<examples>
Пример правильного разбора одного канала:

Канал: Outbound + cold email (по верифицированным ICP-листам)
ICE-приоритет: Impact 8/10 × Confidence 7/10 × Ease 4/10 = 224
CAC target: $2,400 (ниже LTV/3 = $4K при ARR $48K и retention 92%)
Payback period: 9 месяцев
Expected MRR contribution через 90 дней: 12 SQL × 25% close rate = 3 deals × $4K MRR = $12K MRR/мес к концу Q1
Риск 1: Списки B2B-баз устаревают за 90 дней — mitigation: подписка на Apollo + еженедельная sync с CRM
Риск 2: Низкий response rate (1–3%) — mitigation: 4-touch sequence + персонализация по signal-данным (recent funding, hiring)
</examples>

<output_format>
Структура ответа:
Раздел 07 · Экосистема

Как пользоваться платформой

Сайт — не единственная точка входа. Тот же движок поиска работает в Telegram, а уведомления о новых статьях приходят туда же по вашим фильтрам.

Каталог 4 874 статьи

Фильтры по рейтингу, категории (Capability, Domain, Pattern), месяцу публикации, юзкейсу. Сортировка по рейтингу или дате. Каждая карточка — рейтинг, ключевой результат, теги.

Открыть каталог →
Alert Bot @NovaPaperAlert_bot

Telegram‑бот для уведомлений. Настраиваете фильтры — получаете Daily: новые статьи за сутки и Weekly: AI‑дайджест недели — обзор ключевых находок (генерирует Claude).

Подписаться →
AI‑поиск в Telegram @researchtester_bot

Пишете запрос в чат — получаете результаты поиска и AI‑разбор прямо в Telegram. Тот же движок, что на сайте.

Открыть в TG →
Профиль избранное · история

Избранные исследования, история генераций (адаптации + промпты), история AI‑поисков. Всё скачивается в HTML или PDF — ничего не теряется между сессиями.

Личный кабинет →
Раздел 08 · Ежемесячные выпуски

Что приходит каждый месяц

Три формата на основе ~300–400 новых статей. Для PRO‑подписчиков — полные версии, для FREE — выжимка. Ниже — реальные январские выпуски, которые можно скачать прямо сейчас.

Раздел 09 · Экономика

N‑токены — валюта
для AI‑операций

1 N‑токен = 1 рубль. Это внутренняя валюта платформы. Тратятся на AI‑операции: поиск, синтез, адаптацию, Prompt Boost. Keyword‑поиск и чтение каталога — бесплатно.

50 N‑токенов
бесплатно при регистрации через Telegram. Хватает на 15+ AI‑поисков или 1 полный синтез на Claude.

В PRO‑подписке — 500 N‑токенов ежемесячно, докуп пакетами 500 / 1 000 / 3 000.

Стоимость операций · фактические медианы за 30 дней
Операция N‑токенов
Keyword‑поиск
по каталогу, без LLM
0
AI‑поиск
медиана 1, p90 = 3 · 422 запроса
~1
AI‑разбор быстрый
Gemini · медиана 2 · 16 запросов
~2
AI‑разбор глубокий
Claude · медиана 57 · 150 запросов
~57
Адаптация статьи
медиана 22, p90 = 29 · 21 запрос
~22
Сделать промпт
медиана 14, p90 = 24 · 289 запросов
~14
Prompt Boost
медиана 27, p90 = 37 · 14 запросов
~27

Цифры — реальные медианы по 912 операциям за последние 30 дней. Колеблются в зависимости от размера запроса и количества найденных статей.

Получите доступ ко всему этому

PRO-подписка открывает каталог из 4 874 статей, ежемесячные дайджесты, видео-кейсы по автоматизации и Research Finder без ограничений. Можно подписаться помесячно или купить разово.

1 990 ₽ подписка / мес 2 490 ₽ разово 1 мес 6 900 ₽ разово 3 мес
Александр Сухов
Автор · с 2019 года

Александр Сухов

Исследователь LLM, автор Nova Sapiens

Делаю платформу для тех, кто использует LLM как рабочий инструмент, а не развлечение. Каждую неделю в Telegram-канале @novasapiens разбираю одно сильное исследование — почему оно важно и как применить.