3,583 papers
arXiv:2601.19302 87 27 янв. 2026 г. FREE

Formula-One Prompting: сначала уравнения, потом стратегия решения

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM катастрофически плохо держит неявную структуру в задачах с формулами. Считает правильно, но выдаёт 6.3% вместо 0.063. Путает «независимость от переменной» с «равно нулю». Бродит вслепую даже когда умеет в арифметику. Метод F-1 позволяет решать прикладные задачи с формулами точнее — финансовые расчёты, физика, метрики бизнеса. Работает в два шага внутри одного промпта: сначала модель явно формализует задачу (дано → найти → уравнения), потом сама выбирает стратегию — прямое вычисление, пошаговые рассуждения (CoT) или код (PoT). Структура уравнений диктует как решать. +13.3% на финансах, +2.55% на физике к обычному CoT.
Адаптировать под запрос

TL;DR

Formula-One Prompting (F-1) — техника для задач с формулами и уравнениями (финансы, физика, расчёты метрик). Работает в два шага внутри одного промпта: сначала модель явно формулирует управляющие уравнения из условия задачи, затем сама выбирает стратегию — прямое вычисление, пошаговое рассуждение (CoT) или код (PoT) — в зависимости от структуры уравнений.

Обычные методы (CoT, PoT) прыгают сразу в решение, пропуская этап "а какие здесь вообще формулы работают?". В прикладных задачах это больно: модель путает независимость от переменной с нулевым значением, вычисляет правильно но выдаёт в неверном формате, или пытается доказывать в лоб без понимания структуры. Уравнения — это скелет задачи. Без явной формализации модель бродит вслепую даже когда умеет считать.

F-1 заставляет модель сначала выписать дано, найти, формулы — как в школе учили. Потом смотрит на формулы: если простая подстановка → считает напрямую, если многошаговый вывод → Chain-of-Thought, если итеративные вычисления → Program-of-Thought. Структура уравнений диктует стратегию. На финансовых расчётах прирост +13.3% к обычному CoT, на физике +2.55%, на чистой математике +0.44% — метод работает там, где формулы ключевые.


🔬

Схема метода

Оба шага — в одном промпте, один вызов модели:

ШАГ 1: Формализация задачи
├─ Извлечь ДАНО: все значения, условия, ограничения
├─ Определить НАЙТИ: целевые величины
└─ Записать УРАВНЕНИЯ: связи между данным и искомым

ШАГ 2: Адаптивное решение
├─ Оценить структуру уравнений
├─ Выбрать стратегию: Direct / CoT / PoT
├─ Решить по выбранной стратегии
└─ Проверить ответ через уравнения из Шага 1

🚀

Пример применения

Задача: Ты запускаешь подписку на сервис аналитики для малого бизнеса. Клиент платит 2 990 ₽/месяц, средний срок жизни 14 месяцев. Привлечение клиента: 8 000 ₽ на рекламу, 3 500 ₽ комиссия партнёра, операционные расходы 450 ₽/месяц на клиента. Рассчитай LTV, CAC и ROI подписки.

Промпт:

Реши задачу, используя метод Formula-One.

Шаг 1: Формализация
1. Извлеки ДАНО — все числовые значения и условия
2. Определи НАЙТИ — какие метрики нужно рассчитать
3. Запиши УРАВНЕНИЯ — формулы для расчёта этих метрик

Шаг 2: Адаптивное решение
1. Посмотри на структуру уравнений
2. Выбери стратегию:
   - Direct: если простая подстановка в 1-2 формулы
   - CoT: если многошаговый вывод с промежуточными величинами
   - PoT: если сложные итеративные расчёты
3. Реши задачу выбранной стратегией
4. Проверь ответ: подставь в исходные уравнения

Задача:
Ты запускаешь подписку на сервис аналитики для малого бизнеса. Клиент платит 2 990 ₽/месяц, средний срок жизни 14 месяцев. Привлечение клиента: 8 000 ₽ на рекламу, 3 500 ₽ комиссия партнёра, операционные расходы 450 ₽/месяц на клиента. Рассчитай LTV, CAC и ROI подписки.

Результат:

Модель выдаст структурированный ответ: в Шаге 1 выпишет дано (цена, срок жизни, затраты), найти (LTV, CAC, ROI) и формулы (LTV = доход за срок жизни − операционные затраты, CAC = затраты на привлечение, ROI = (LTV − CAC) / CAC). В Шаге 2 выберет стратегию (скорее всего Direct — прямая подстановка) и выдаст расчёт с числами. В конце проверит: подставит результаты обратно в формулы, убедится что считает правильно.


🧠

Почему это работает

Модели плохо держат неявную структуру. Когда задача идёт текстом, LLM пытается решать "на лету" — смешивает рассуждение, вычисление и форматирование. Результат: считает правильно, но выдаёт 6.3% вместо 0.063. Или путает "независимость от переменной" с "равно нулю". Или начинает доказывать криптографическую теорему в лоб, игнорируя что есть стандартная конструкция sub-hybrid argument.

Модели отлично работают со структурами. Если явно попросить: "выпиши дано → найти → формулы", модель переключается в режим формализации. Уравнения становятся каркасом: видно что подставлять, что выводить, в каком формате считать. Формула убирает двусмысленность. Написал Φ'(x) = c — сразу понятно что это константа, не ноль. Выписал "доход в рублях, ответ в рублях" — не перепутаешь с процентами.

Адаптивность добавляет точности, но не главная. Абляция показала: формализация уравнений даёт в два раза больше прироста (+8.5% на финансах), чем выбор стратегии (+6%). Выбор стратегии — это бонус: для простых подстановок модель не тратит токены на рассуждения, для доказательств не пытается считать в коде. Но основная магия — заставить модель сначала понять структуру задачи, потом действовать.

Рычаги управления: - Детализация формализации: укажи "выпиши все промежуточные формулы" → модель не пропустит шаги - Жёсткость выбора стратегии: можешь явно указать "используй только CoT" → уберёшь адаптивность, но контролируешь процесс - Проверка в конце: убери шаг "проверь через уравнения" → увидишь сырой вывод без самопроверки (хорошо для отладки)


📋

Шаблон промпта

Реши задачу, используя метод Formula-One.

Шаг 1: Формализация
1. Извлеки ДАНО — все числовые значения, условия, ограничения
2. Определи НАЙТИ — целевые величины или утверждения которые нужно доказать
3. Запиши УРАВНЕНИЯ — математические связи между данным и искомым

Шаг 2: Адаптивное решение
1. Оцени структуру уравнений
2. Выбери стратегию:
   - Direct: если закрытая форма, 1-2 подстановки
   - CoT: если многошаговый вывод или доказательство
   - PoT: если итеративные расчёты или сложная арифметика (>3 операций)
3. Реши задачу выбранной стратегией
4. Проверь ответ: подставь результаты в исходные уравнения

Задача: {твоя_задача}

Плейсхолдеры: - {твоя_задача} — любая задача где есть числовые данные, формулы, метрики. Особенно хорошо: финансовые расчёты, физические задачи, бизнес-метрики, оценка эффективности.


🚀 Быстрый старт — вставь в чат:

Вот шаблон Formula-One Prompting. Адаптируй под мою задачу: [твоя задача].
Задавай вопросы, чтобы заполнить поля.

[вставить шаблон выше]

LLM спросит какие данные у тебя есть, что нужно найти, какие формулы применимы — потому что метод построен вокруг явной формализации. Она возьмёт двухшаговую структуру (дано-найти-формулы → выбор стратегии → решение) и адаптирует под твою конкретную задачу.


⚠️

Ограничения

⚠️ Чистая математика: На олимпиадных задачах по математике прирост минимальный (+0.44%). Метод создан для прикладных областей где формулы — ключ к решению, не для абстрактных головоломок.

⚠️ Слишком простые задачи: Если задача решается в одно действие ("переведи доллары в рубли по курсу 95"), формализация избыточна. Модель справится и без неё, шаблон добавит только токенов.

⚠️ Очень сложные задачи: На IMO-Bench (международная математическая олимпиада) 90.7% задач не решает ни один метод. Формализация не поможет если задача за пределами способностей модели.

⚠️ Зависит от способности к формализации: Метод требует чтобы модель умела извлекать и записывать уравнения. На маленьких моделях (<30B параметров) эффект не тестировался — может не работать.


🔍

Как исследовали

Команда проверила F-1 на четырёх бенчмарках (2 116 задач) и пяти моделях от 30B до frontier-уровня. Логика выбора бенчмарков: взяли только те, где формулы центральные для решения — физику (OlympiadBench), финансы (FinanceMath), криптографию (AICrypto), олимпиады по математике (IMO-Bench). Специально исключили арифметические задачи типа GSM8K — там просто последовательные вычисления, не формализация уравнений.

Сравнивали с тремя baseline: Zero-Shot, Chain-of-Thought, Program-of-Thought. Все single-call методы — честное сравнение. Температура 0 (greedy decoding), одна генерация на задачу. Оценка: regex для задач с числовым ответом, LLM-as-Judge для доказательств.

Ключевая находка: прирост прямо коррелирует с "прикладностью" домена. Финансы +13.3%, криптография +7.24%, физика +2.55%, чистая математика +0.44%. Почему? Исследователи предположили что дело в составе обучающих данных. Прикладной контент (учебники, научные статьи) естественно структурирован через уравнения: "дано..., найти..., используя формулу...". Синтетические CoT-датасеты для олимпиадной математики устроены иначе — там рассуждения текстом, без явной формализации. F-1 попадает в естественную структуру прикладного контента → модель работает лучше.

Абляция показала иерархию ценности: убрали формализацию уравнений → падение −8.5% на финансах. Убрали адаптивный выбор стратегии → падение −6%. Формализация в два раза важнее адаптивности. Даже если всегда использовать CoT, но с предварительной формализацией — уже большой прирост. Адаптивность — это вишенка, основа — структурирование через уравнения.

Анализ выбора стратегии: F-1 достигает 73% точности в выборе правильной стратегии на FinanceMath, 69.9% на OlympiadBench. Это 81-84% от теоретического потолка (best achievable by any baseline). Оставшиеся 16-19% разрыва — это либо ошибки формализации, либо задачи где ни одна стратегия не работает.

Эффективность: F-1 добавляет всего +68 токенов к промпту (vs Zero-Shot), но выдаёт на 212 токенов меньше в среднем потому что выбирает стратегию точнее. Итоговое efficiency ratio (точность / токены) = 1.51 — на 25.8% лучше Zero-Shot, при этом точность выше.


📄

Оригинал из исследования

You will solve a mathematical problem following a two-phase approach:

Phase 1: Problem Formalization
- Identify Givens: Extract ALL explicitly stated values, conditions, and constraints
- Identify Targets: Determine what the problem asks to find or prove
- Formulate Equations: Express the mathematical relationships connecting givens to targets

Phase 2: Adaptive Solving
Based on the formalized equations, select ONE of the following strategies:

Strategy 1 - Direct Calculation:
Use for: Closed-form solutions, simple substitutions (≤2 steps)
Output: Direct numerical/symbolic answer

Strategy 2 - Chain-of-Thought (CoT):
Use for: Multi-step derivations, proofs, logical arguments
Output: Step-by-step reasoning in natural language

Strategy 3 - Program-of-Thought (PoT):
Use for: Iterative calculations, complex arithmetic (>3 operations)
Output: Python code (as reasoning structure, not for execution)

After solving, verify your answer against the formalized equations.

Problem: [problem statement here]

Контекст: Исследователи использовали этот единый шаблон для всех бенчмарков. Адаптации — только в формате вывода и доменных терминах (для криптографии добавляли "security game definitions", для финансов — "financial formulas"). Структура две фазы + три стратегии оставалась неизменной.


💡

Адаптации и экстраполяции

💡 Адаптация для контент-стратегии: Метод подойдёт для расчёта медиа-метрик — охват, вовлечённость, стоимость контакта. Формализация заставит выписать все формулы (CTR = клики / показы, CPM = бюджет / показы × 1000), потом модель выберет стратегию и посчитает правильно без путаницы процентов и абсолютных значений.

Реши задачу используя Formula-One.

Шаг 1: Формализация
1. Извлеки ДАНО — все метрики и значения
2. Определи НАЙТИ — целевые показатели
3. Запиши ФОРМУЛЫ — как метрики связаны между собой

Шаг 2: Адаптивное решение
[стандартный блок выбора стратегии]

Задача:
Запустили рекламу. Показы: 450 000, клики: 3 200, бюджет: 85 000 ₽, конверсий: 140, средний чек: 2 400 ₽. Рассчитай CTR, CPM, CPC, CR, CPA, ROI и ROMI.

🔧 Техника: добавить визуализацию формул → лучше для сложных систем уравнений

Если задача со множеством взаимосвязанных формул (например, система из 5+ уравнений), добавь в Шаг 1:

3. Запиши УРАВНЕНИЯ:
   - Сначала перечисли все формулы списком
   - Затем покажи как они связаны: какая формула использует результат другой
   - Нарисуй схему зависимостей если нужно

Это заставит модель увидеть граф вычислений перед решением. Особенно полезно когда есть промежуточные величины которые переиспользуются в разных формулах.


🔧 Техника: явная стратегия для командной работы → согласованность в проекте

Если задачу решает команда и нужна единая методология, зафиксируй стратегию:

Шаг 2: Решение через CoT
Используй Chain-of-Thought — пошаговое рассуждение на естественном языке.
Обязательно:
- Каждый шаг на новой строке
- Промежуточные результаты в [квадратных скобках]
- Логика перехода от шага к шагу явно описана

Убираешь адаптивность, но получаешь предсказуемость: все в команде видят одинаковую структуру решений, легче проверять и улучшать.


🔗

Ресурсы

Formula-One Prompting: Adaptive Reasoning Through Equations For Applied Mathematics

Natapong Nitarach, Pittawat Taveekitworachai, Kunat Pipatanakul

SCB 10X, SCBX Group

Релевантные ссылки из исследования: - Chain-of-Thought Prompting (Wei et al., 2022) - Program-of-Thought (Chen et al., 2023) - Plan-and-Solve Prompting (Wang et al., 2023)


📋 Дайджест исследования

Ключевая суть

Обнаружено: LLM катастрофически плохо держит неявную структуру в задачах с формулами. Считает правильно, но выдаёт 6.3% вместо 0.063. Путает «независимость от переменной» с «равно нулю». Бродит вслепую даже когда умеет в арифметику. Метод F-1 позволяет решать прикладные задачи с формулами точнее — финансовые расчёты, физика, метрики бизнеса. Работает в два шага внутри одного промпта: сначала модель явно формализует задачу (дано → найти → уравнения), потом сама выбирает стратегию — прямое вычисление, пошаговые рассуждения (CoT) или код (PoT). Структура уравнений диктует как решать. +13.3% на финансах, +2.55% на физике к обычному CoT.

Принцип работы

Раздели формализацию и решение — это два разных режима работы модели. Шаг 1 — Формализация (внешняя память): Модель выписывает дано, найти, формулы. Уравнения становятся каркасом задачи — видно что подставлять, что выводить, в каком формате считать. Шаг 2 — Адаптивное решение: Модель смотрит на структуру формул и выбирает стратегию. Простая подстановка → считает напрямую. Многошаговый вывод → пошаговые рассуждения. Итеративные вычисления → генерирует код. Оба шага в одном промпте, один вызов модели.

Почему работает

Модели плохо держат неявную структуру. Когда задача идёт текстом, LLM пытается решать «на лету» — смешивает рассуждение, вычисление и форматирование. Результат: считает верно, но путает формат (рубли vs проценты). Или пропускает промежуточные шаги. Формула убирает двусмысленность. Написал Φ'(x) = c — сразу понятно что это константа, не ноль. Выписал «доход в рублях, ответ в рублях» — не перепутаешь с процентами. Абляция показала: формализация уравнений даёт в два раза больше прироста (+8.5% на финансах), чем выбор стратегии (+6%). Основная магия — заставить модель сначала понять структуру задачи, потом действовать.

Когда применять

Прикладные задачи с формулами → конкретно для финансовых расчётов (окупаемость инвестиций, пожизненная ценность клиента), физических задач, бизнес-метрик, оценки эффективности — особенно когда есть числовые данные и нужно применить 2+ формулы. НЕ подходит для: - Чистой математики (олимпиадные задачи) — прирост +0.44%, почти ноль - Задач в одно действие — формализация избыточна - Абстрактных головоломок без формул

Мини-рецепт

1. Задай двухшаговую структуру:
Укажи Шаг 1: Формализация — выпиши ДАНО (значения, условия), НАЙТИ (целевые величины), УРАВНЕНИЯ (связи между ними)

2. Добавь адаптивный выбор:
Укажи Шаг 2: Адаптивное решение — оцени структуру формул, выбери стратегию (Direct для 1-2 подстановок / CoT для многошаговых / PoT для итеративных), реши, проверь через уравнения

3. Дай задачу с формулами:
Финансовый расчёт, физическая задача, бизнес-метрика — любое где есть числа и формулы для их связи

4. (опционально) Управляй детализацией:
Добавь выпиши все промежуточные формулы → модель не пропустит шаги. Или убери проверку проверь через уравнения → увидишь сырой вывод

Примеры

[ПЛОХО] : Посчитай LTV клиента: платит 2990₽/месяц 14 месяцев, привлечение 11500₽, операционка 450₽/месяц (Модель считает сразу, может перепутать формат или пропустить промежуточные величины)
[ХОРОШО] : Используй Formula-One. Шаг 1: Формализация — выпиши ДАНО (цена, срок жизни, затраты), НАЙТИ (LTV, CAC, ROI), УРАВНЕНИЯ (формулы для расчёта). Шаг 2: Адаптивное решение — оцени структуру формул, выбери стратегию (Direct/CoT/PoT), реши, проверь через уравнения. Задача: Клиент платит 2990₽/месяц 14 месяцев, привлечение: реклама 8000₽ + комиссия партнёра 3500₽, операционка 450₽/месяц. Посчитай LTV, CAC, ROI. (Модель выпишет формулы, выберет Direct — прямая подстановка, посчитает с проверкой)
Источник: Formula-OnePrompting: Adaptive Reasoning Through Equations For Applied Mathematics
ArXiv ID: 2601.19302 | Сгенерировано: 2026-01-28 05:33

Методы

МетодСуть
Два шага: формулы, потом стратегияШаг 1 — формализация: модель выписывает дано, найти, уравнения (как в школе). Шаг 2 — адаптивное решение: смотрит на структуру формул и выбирает стратегию — прямое вычисление (простая подстановка), цепочка рассуждений (многошаговый вывод) или код (итеративные расчёты). Оба шага в одном запросе. Почему работает: Явные уравнения = каркас задачи. Модель видит что подставлять, что выводить, в каком формате считать. Без этого прыгает в решение и путается. Когда применять: задачи с формулами и числами — финансовые расчёты, физика, метрики эффективности, бизнес-показатели. Когда НЕ работает: чистая математика (абстрактные доказательства), текстовые рассуждения без формул, простые одношаговые подстановки (избыточно)
📖 Простыми словами

Formula-OnePrompting: Adaptive Reasoning Through Equations For Applied Mathematics

arXiv: 2601.19302

Суть метода Formula-One Prompting (F-1) в том, что нейронки чертовски плохо считают в уме, когда им подсовывают текстовые задачи. Проблема в архитектуре: LLM пытается одновременно понять условие, вспомнить формулу и выдать ответ, в итоге спотыкается на элементарной арифметике или путает переменные. Метод F-1 заставляет модель сначала «выгрузить» логику задачи в виде явных уравнений, а уже потом решать их. Это создает жесткий каркас, который не дает модели уйти в творческий полет там, где нужны сухие цифры.

Это как пытаться собрать сложный шкаф из Икеи без инструкции, просто глядя на гору досок. Ты вроде понимаешь, что должно получиться, но в процессе обязательно прикрутишь полку не туда или потеряешь лишний шуруп. Formula-One — это когда ты сначала выкладываешь перед собой все детали, сверяешься со схемой и только потом берешь в руки шуруповерт. Формально работа та же, но вероятность собрать табуретку вместо шкафа стремится к нулю.

Главная фишка здесь — адаптивная стратегия. Модель не просто шпарит по шаблону, она смотрит на выписанные уравнения и сама решает, как их «добить». Если задача простая — считает в лоб. Если сложная — включает пошаговое рассуждение (CoT). Если там зубодробительные вычисления — пишет код на Python (PoT). Получается комбо: сначала структурирование через формулы, затем выбор оптимального инструмента под конкретный затык.

Хотя метод обкатывали на математике и физике, принцип универсален для любого бизнеса, где есть расчеты. Будь то юнит-экономика, расчет LTV и CAC для стартапа или прикидка налогов — везде, где текст смешивается с цифрами, обычный промпт может выдать «галлюцинацию» вместо прибыли. F-1 превращает хаотичное описание в четкий алгоритм, который поймет даже самая «гуманитарная» модель. SEO для цифр больше не нужно, нужно правильное управление логикой.

Короче: хватит просить нейронку «просто посчитать» — заставляй её сначала выводить формулы. Это снижает риск того, что модель перепутает проценты с долями или забудет вычесть операционные расходы. Двухэтапный промпт с выбором стратегии — это единственный способ заставить AI работать как калькулятор, а не как сказочник. Кто не внедрит такую структуру в свои рабочие процессы, тот так и будет получать красивые, но абсолютно неверные отчеты.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с