TL;DR
Formula-One Prompting (F-1) — техника для задач с формулами и уравнениями (финансы, физика, расчёты метрик). Работает в два шага внутри одного промпта: сначала модель явно формулирует управляющие уравнения из условия задачи, затем сама выбирает стратегию — прямое вычисление, пошаговое рассуждение (CoT) или код (PoT) — в зависимости от структуры уравнений.
Обычные методы (CoT, PoT) прыгают сразу в решение, пропуская этап "а какие здесь вообще формулы работают?". В прикладных задачах это больно: модель путает независимость от переменной с нулевым значением, вычисляет правильно но выдаёт в неверном формате, или пытается доказывать в лоб без понимания структуры. Уравнения — это скелет задачи. Без явной формализации модель бродит вслепую даже когда умеет считать.
F-1 заставляет модель сначала выписать дано, найти, формулы — как в школе учили. Потом смотрит на формулы: если простая подстановка → считает напрямую, если многошаговый вывод → Chain-of-Thought, если итеративные вычисления → Program-of-Thought. Структура уравнений диктует стратегию. На финансовых расчётах прирост +13.3% к обычному CoT, на физике +2.55%, на чистой математике +0.44% — метод работает там, где формулы ключевые.
Схема метода
Оба шага — в одном промпте, один вызов модели:
ШАГ 1: Формализация задачи
├─ Извлечь ДАНО: все значения, условия, ограничения
├─ Определить НАЙТИ: целевые величины
└─ Записать УРАВНЕНИЯ: связи между данным и искомым
ШАГ 2: Адаптивное решение
├─ Оценить структуру уравнений
├─ Выбрать стратегию: Direct / CoT / PoT
├─ Решить по выбранной стратегии
└─ Проверить ответ через уравнения из Шага 1
Пример применения
Задача: Ты запускаешь подписку на сервис аналитики для малого бизнеса. Клиент платит 2 990 ₽/месяц, средний срок жизни 14 месяцев. Привлечение клиента: 8 000 ₽ на рекламу, 3 500 ₽ комиссия партнёра, операционные расходы 450 ₽/месяц на клиента. Рассчитай LTV, CAC и ROI подписки.
Промпт:
Реши задачу, используя метод Formula-One.
Шаг 1: Формализация
1. Извлеки ДАНО — все числовые значения и условия
2. Определи НАЙТИ — какие метрики нужно рассчитать
3. Запиши УРАВНЕНИЯ — формулы для расчёта этих метрик
Шаг 2: Адаптивное решение
1. Посмотри на структуру уравнений
2. Выбери стратегию:
- Direct: если простая подстановка в 1-2 формулы
- CoT: если многошаговый вывод с промежуточными величинами
- PoT: если сложные итеративные расчёты
3. Реши задачу выбранной стратегией
4. Проверь ответ: подставь в исходные уравнения
Задача:
Ты запускаешь подписку на сервис аналитики для малого бизнеса. Клиент платит 2 990 ₽/месяц, средний срок жизни 14 месяцев. Привлечение клиента: 8 000 ₽ на рекламу, 3 500 ₽ комиссия партнёра, операционные расходы 450 ₽/месяц на клиента. Рассчитай LTV, CAC и ROI подписки.
Результат:
Модель выдаст структурированный ответ: в Шаге 1 выпишет дано (цена, срок жизни, затраты), найти (LTV, CAC, ROI) и формулы (LTV = доход за срок жизни − операционные затраты, CAC = затраты на привлечение, ROI = (LTV − CAC) / CAC). В Шаге 2 выберет стратегию (скорее всего Direct — прямая подстановка) и выдаст расчёт с числами. В конце проверит: подставит результаты обратно в формулы, убедится что считает правильно.
Почему это работает
Модели плохо держат неявную структуру. Когда задача идёт текстом, LLM пытается решать "на лету" — смешивает рассуждение, вычисление и форматирование. Результат: считает правильно, но выдаёт 6.3% вместо 0.063. Или путает "независимость от переменной" с "равно нулю". Или начинает доказывать криптографическую теорему в лоб, игнорируя что есть стандартная конструкция sub-hybrid argument.
Модели отлично работают со структурами. Если явно попросить: "выпиши дано → найти → формулы", модель переключается в режим формализации. Уравнения становятся каркасом: видно что подставлять, что выводить, в каком формате считать. Формула убирает двусмысленность. Написал Φ'(x) = c — сразу понятно что это константа, не ноль. Выписал "доход в рублях, ответ в рублях" — не перепутаешь с процентами.
Адаптивность добавляет точности, но не главная. Абляция показала: формализация уравнений даёт в два раза больше прироста (+8.5% на финансах), чем выбор стратегии (+6%). Выбор стратегии — это бонус: для простых подстановок модель не тратит токены на рассуждения, для доказательств не пытается считать в коде. Но основная магия — заставить модель сначала понять структуру задачи, потом действовать.
Рычаги управления: - Детализация формализации: укажи "выпиши все промежуточные формулы" → модель не пропустит шаги - Жёсткость выбора стратегии: можешь явно указать "используй только CoT" → уберёшь адаптивность, но контролируешь процесс - Проверка в конце: убери шаг "проверь через уравнения" → увидишь сырой вывод без самопроверки (хорошо для отладки)
Шаблон промпта
Реши задачу, используя метод Formula-One.
Шаг 1: Формализация
1. Извлеки ДАНО — все числовые значения, условия, ограничения
2. Определи НАЙТИ — целевые величины или утверждения которые нужно доказать
3. Запиши УРАВНЕНИЯ — математические связи между данным и искомым
Шаг 2: Адаптивное решение
1. Оцени структуру уравнений
2. Выбери стратегию:
- Direct: если закрытая форма, 1-2 подстановки
- CoT: если многошаговый вывод или доказательство
- PoT: если итеративные расчёты или сложная арифметика (>3 операций)
3. Реши задачу выбранной стратегией
4. Проверь ответ: подставь результаты в исходные уравнения
Задача: {твоя_задача}
Плейсхолдеры:
- {твоя_задача} — любая задача где есть числовые данные, формулы, метрики. Особенно хорошо: финансовые расчёты, физические задачи, бизнес-метрики, оценка эффективности.
🚀 Быстрый старт — вставь в чат:
Вот шаблон Formula-One Prompting. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.
[вставить шаблон выше]
LLM спросит какие данные у тебя есть, что нужно найти, какие формулы применимы — потому что метод построен вокруг явной формализации. Она возьмёт двухшаговую структуру (дано-найти-формулы → выбор стратегии → решение) и адаптирует под твою конкретную задачу.
Ограничения
⚠️ Чистая математика: На олимпиадных задачах по математике прирост минимальный (+0.44%). Метод создан для прикладных областей где формулы — ключ к решению, не для абстрактных головоломок.
⚠️ Слишком простые задачи: Если задача решается в одно действие ("переведи доллары в рубли по курсу 95"), формализация избыточна. Модель справится и без неё, шаблон добавит только токенов.
⚠️ Очень сложные задачи: На IMO-Bench (международная математическая олимпиада) 90.7% задач не решает ни один метод. Формализация не поможет если задача за пределами способностей модели.
⚠️ Зависит от способности к формализации: Метод требует чтобы модель умела извлекать и записывать уравнения. На маленьких моделях (<30B параметров) эффект не тестировался — может не работать.
Как исследовали
Команда проверила F-1 на четырёх бенчмарках (2 116 задач) и пяти моделях от 30B до frontier-уровня. Логика выбора бенчмарков: взяли только те, где формулы центральные для решения — физику (OlympiadBench), финансы (FinanceMath), криптографию (AICrypto), олимпиады по математике (IMO-Bench). Специально исключили арифметические задачи типа GSM8K — там просто последовательные вычисления, не формализация уравнений.
Сравнивали с тремя baseline: Zero-Shot, Chain-of-Thought, Program-of-Thought. Все single-call методы — честное сравнение. Температура 0 (greedy decoding), одна генерация на задачу. Оценка: regex для задач с числовым ответом, LLM-as-Judge для доказательств.
Ключевая находка: прирост прямо коррелирует с "прикладностью" домена. Финансы +13.3%, криптография +7.24%, физика +2.55%, чистая математика +0.44%. Почему? Исследователи предположили что дело в составе обучающих данных. Прикладной контент (учебники, научные статьи) естественно структурирован через уравнения: "дано..., найти..., используя формулу...". Синтетические CoT-датасеты для олимпиадной математики устроены иначе — там рассуждения текстом, без явной формализации. F-1 попадает в естественную структуру прикладного контента → модель работает лучше.
Абляция показала иерархию ценности: убрали формализацию уравнений → падение −8.5% на финансах. Убрали адаптивный выбор стратегии → падение −6%. Формализация в два раза важнее адаптивности. Даже если всегда использовать CoT, но с предварительной формализацией — уже большой прирост. Адаптивность — это вишенка, основа — структурирование через уравнения.
Анализ выбора стратегии: F-1 достигает 73% точности в выборе правильной стратегии на FinanceMath, 69.9% на OlympiadBench. Это 81-84% от теоретического потолка (best achievable by any baseline). Оставшиеся 16-19% разрыва — это либо ошибки формализации, либо задачи где ни одна стратегия не работает.
Эффективность: F-1 добавляет всего +68 токенов к промпту (vs Zero-Shot), но выдаёт на 212 токенов меньше в среднем потому что выбирает стратегию точнее. Итоговое efficiency ratio (точность / токены) = 1.51 — на 25.8% лучше Zero-Shot, при этом точность выше.
Оригинал из исследования
You will solve a mathematical problem following a two-phase approach:
Phase 1: Problem Formalization
- Identify Givens: Extract ALL explicitly stated values, conditions, and constraints
- Identify Targets: Determine what the problem asks to find or prove
- Formulate Equations: Express the mathematical relationships connecting givens to targets
Phase 2: Adaptive Solving
Based on the formalized equations, select ONE of the following strategies:
Strategy 1 - Direct Calculation:
Use for: Closed-form solutions, simple substitutions (≤2 steps)
Output: Direct numerical/symbolic answer
Strategy 2 - Chain-of-Thought (CoT):
Use for: Multi-step derivations, proofs, logical arguments
Output: Step-by-step reasoning in natural language
Strategy 3 - Program-of-Thought (PoT):
Use for: Iterative calculations, complex arithmetic (>3 operations)
Output: Python code (as reasoning structure, not for execution)
After solving, verify your answer against the formalized equations.
Problem: [problem statement here]
Контекст: Исследователи использовали этот единый шаблон для всех бенчмарков. Адаптации — только в формате вывода и доменных терминах (для криптографии добавляли "security game definitions", для финансов — "financial formulas"). Структура две фазы + три стратегии оставалась неизменной.
Адаптации и экстраполяции
💡 Адаптация для контент-стратегии: Метод подойдёт для расчёта медиа-метрик — охват, вовлечённость, стоимость контакта. Формализация заставит выписать все формулы (CTR = клики / показы, CPM = бюджет / показы × 1000), потом модель выберет стратегию и посчитает правильно без путаницы процентов и абсолютных значений.
Реши задачу используя Formula-One.
Шаг 1: Формализация
1. Извлеки ДАНО — все метрики и значения
2. Определи НАЙТИ — целевые показатели
3. Запиши ФОРМУЛЫ — как метрики связаны между собой
Шаг 2: Адаптивное решение
[стандартный блок выбора стратегии]
Задача:
Запустили рекламу. Показы: 450 000, клики: 3 200, бюджет: 85 000 ₽, конверсий: 140, средний чек: 2 400 ₽. Рассчитай CTR, CPM, CPC, CR, CPA, ROI и ROMI.
🔧 Техника: добавить визуализацию формул → лучше для сложных систем уравнений
Если задача со множеством взаимосвязанных формул (например, система из 5+ уравнений), добавь в Шаг 1:
3. Запиши УРАВНЕНИЯ:
- Сначала перечисли все формулы списком
- Затем покажи как они связаны: какая формула использует результат другой
- Нарисуй схему зависимостей если нужно
Это заставит модель увидеть граф вычислений перед решением. Особенно полезно когда есть промежуточные величины которые переиспользуются в разных формулах.
🔧 Техника: явная стратегия для командной работы → согласованность в проекте
Если задачу решает команда и нужна единая методология, зафиксируй стратегию:
Шаг 2: Решение через CoT
Используй Chain-of-Thought — пошаговое рассуждение на естественном языке.
Обязательно:
- Каждый шаг на новой строке
- Промежуточные результаты в [квадратных скобках]
- Логика перехода от шага к шагу явно описана
Убираешь адаптивность, но получаешь предсказуемость: все в команде видят одинаковую структуру решений, легче проверять и улучшать.
Ресурсы
Formula-One Prompting: Adaptive Reasoning Through Equations For Applied Mathematics
Natapong Nitarach, Pittawat Taveekitworachai, Kunat Pipatanakul
SCB 10X, SCBX Group
Релевантные ссылки из исследования: - Chain-of-Thought Prompting (Wei et al., 2022) - Program-of-Thought (Chen et al., 2023) - Plan-and-Solve Prompting (Wang et al., 2023)
