3,583 papers

Меню

arXiv:2602.03900 80 3 фев. 2026 г. PRO

TMK Prompting: декомпозиция задачи на «Зачем — Как — Что знаем»

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM на процедурных задачах полагаются на лингвистические паттерны — «звучит правильно» вместо «формально корректно». На символьных задачах без семантики (блоки с названиями типа «1jpkithdyjmlikck») модель теряется — нет знакомых слов, не за что зацепиться. o1 показала 31.5% точности. TMK (Task-Method-Knowledge) позволяет переключить модель от угадывания на основе вероятностей к формальной манипуляции — как при работе с кодом. Даёшь не текстовое описание задачи, а JSON-структуру из трёх слоёв: Task (зачем, цель), Method (как, шаги с явными зависимостями), Knowledge (что знаем о домене). Модель видит структуру с полями require, provides, given, makes — это похоже на псевдокод, где чёткая логика «if X then Y because Z». С TMK o1 выдала 97.3% — прирост 65.8 процентных пунктов.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с