3,583 papers
arXiv:2601.01546 73 4 янв. 2026 г. FREE

Context Formation & Navigation: двухступенчатая структура промпта для сложных решений

КЛЮЧЕВАЯ СУТЬ
LLM может рассуждать логично, но теряется в задачах со стратегическим взаимодействием. Там, где участники зависят друг от друга и предугадывают чужие действия (ценовые войны, переговоры, рыночная динамика), модель не улавливает структуру. Пример: в игре с последовательными покупками LLM видит 'время ожидания', но не понимает что это сигнал о качестве товара — для неё это просто задержка. Метод позволяет получить адекватный анализ в сложных средах принятия решений. Фишка: разбить промпт на два явных этапа. Первый — Context Formation: опиши структуру (кто участники, что видят, какие цели, какие альтернативы). Второй — Context Navigation: направь рассуждения (как каждый оценивает ситуацию, что думает о действиях других, как формирует ожидания). Для простых задач хватает первого этапа. Для сложных нужны оба.
Адаптировать под запрос

TL;DR

Context Formation & Navigation — принцип построения промптов для задач со стратегическим взаимодействием и формированием убеждений. Суть: когда просишь LLM проанализировать сложную ситуацию, где участники зависят друг от друга и должны предугадывать чужие действия, недостаточно просто описать задачу — нужно явно задать структуру (кто участники, что видят, какие цели) и направить рассуждения (как каждый оценивает ситуацию с учётом действий других).

Исследование показало: LLM систематически расходятся с человеческим поведением в сложных средах принятия решений — там, где нужно предугадывать действия других и формировать убеждения на основе наблюдений. Причина: модель может неправильно интерпретировать структуру задачи или использовать не те паттерны рассуждений, хотя сама способность рассуждать у неё есть. Например, в игре с последовательными покупками (где время ожидания сигнализирует о качестве товара) LLM не улавливает, что ожидание других покупателей — это сигнал, а не просто задержка.

Решение: разбить промпт на два явных этапа. Первый — формирование контекста: явно опиши структуру ситуации (участники, цели, информация, альтернативы). Второй — навигация в контексте: направь процесс рассуждения (как каждый участник оценивает ситуацию, что думает о действиях других, как формирует ожидания). Для простых задач без стратегического взаимодействия достаточно первого этапа. Для сложных — нужны оба.

📌

Схема принципа

ДЛЯ ПРОСТЫХ ЗАДАЧ (без стратегического взаимодействия):

ЭТАП 1: Context Formation
└─ Явно опиши структуру: участники, цели, информация, альтернативы

ДЛЯ СЛОЖНЫХ ЗАДАЧ (со стратегическим взаимодействием):

ЭТАП 1: Context Formation
└─ Явно опиши структуру: участники, цели, информация, альтернативы

ЭТАП 2: Context Navigation  
└─ Направь рассуждения: как каждый участник оценивает ситуацию,
   что думает о действиях других, как формирует ожидания

Оба этапа выполняются в одном промпте, но структурированы как отдельные блоки.

🚀

Пример применения

Задача: Твоя компания запускает новый безлимитный тариф сотовой связи за 800₽/мес. На рынке три крупных игрока: ты, МТС и Билайн. Сейчас все продают похожие тарифы за 1000₽. Нужно понять: как отреагируют конкуренты и какую долю рынка ты захватишь через 3 месяца.

Промпт без принципа (плохо):

Мы запускаем тариф за 800₽ при рыночной цене 1000₽. 
Как отреагируют МТС и Билайн? Какую долю рынка получим?

Промпт с Context Formation & Navigation (хорошо):

СТРУКТУРА СИТУАЦИИ (Context Formation):
- Участники: Мы, МТС, Билайн
- Текущая цена у всех: 1000₽/мес за безлимит
- Наша цена: 800₽/мес
- Цель каждого: максимизировать прибыль (не просто долю рынка)
- Что видят конкуренты: нашу новую цену (публично)
- Альтернативы конкурентов: снизить цену, оставить как есть, улучшить условия тарифа
- Издержки: у всех примерно одинаковые, маржа около 40% при цене 1000₽
- Абоненты: могут сменить оператора, но есть барьер (переход занимает время)

ПРОЦЕСС РАССУЖДЕНИЯ (Context Navigation):
Рассуждай с точки зрения каждого участника:

1. МТС видит нашу цену 800₽. Что они думают?
   - Какие наши намерения? (захват доли vs временная акция)
   - Если они снизят цену до 800₽, сколько потеряют в выручке vs сколько сохранят абонентов?
   - Что сделает Билайн? (если МТС снизит, Билайн тоже снизит?)

2. Билайн делает те же расчёты, но также думает о реакции МТС

3. Мы должны учесть: конкуренты видят не только нашу цену, 
   но и реакцию рынка (сколько абонентов переходит к нам)

Проанализируй ситуацию через 3 раунда:
- Раунд 1: первая реакция конкурентов (месяц 1)
- Раунд 2: корректировки после наблюдения реакции рынка (месяц 2)  
- Раунд 3: новое равновесие (месяц 3)

В каждом раунде покажи: что видит каждый участник, 
какие ожидания формирует о действиях других, какое решение принимает.

Результат:

Модель выдаст анализ с явной логикой по раундам: в первом раунде покажет начальные ожидания конкурентов (скорее всего, осторожная реакция — наблюдение), во втором — корректировки после наблюдения реального оттока абонентов (возможное снижение цен), в третьем — стабилизацию. Для каждого раунда будет видно: что думает каждый участник о намерениях других и как это влияет на решения. Финальная оценка доли рынка будет учитывать не только прямую реакцию на цену, но и динамику ожиданий и стратегических корректировок.

🧠

Почему это работает

Слабость LLM: В задачах со стратегическим взаимодействием модель может неправильно интерпретировать структуру задачи. Она понимает слова, но не всегда улавливает, что действия одних зависят от ожиданий о действиях других. Например, в игре с последовательными покупками LLM видит "время ожидания", но не понимает, что это сигнал о качестве (другие покупатели ждали = возможно, хороший товар), а воспринимает просто как задержку. Или в ценовой войне: модель может рассчитать прямой эффект снижения цены, но упустить, что конкуренты тоже будут реагировать, наблюдая за нашими действиями.

Сильная сторона LLM: Модель отлично рассуждает пошагово, следует явным инструкциям и может симулировать разные точки зрения. Если ей дать чёткую структуру ("вот участники, вот что они видят, вот их цели") и направить процесс ("рассуждай с точки зрения каждого, учти что каждый думает о действиях других"), она производит качественный анализ.

Как принцип использует сильную сторону: Двухступенчатая структура устраняет двусмысленность. Context Formation делает явной структуру ситуации — кто что видит, какие цели, какие альтернативы. Это фиксирует правильную интерпретацию задачи. Context Navigation направляет рассуждения в нужное русло — заставляет модель явно проговорить, как каждый участник формирует ожидания о действиях других и как эти ожидания влияют на решения. Без этого модель может рассуждать логично, но в неправильной системе координат.

Рычаги управления:

  • Глубина рассуждений — можно задать число раундов ("проанализируй через 3 раунда" vs "проанализируй через 1 раунд"). Больше раундов → сложнее анализ, но точнее учёт динамики.
  • Детализация структуры — можно упростить Context Formation для быстрого анализа, убрав менее важные детали (например, барьеры смены оператора). Меньше деталей → быстрее, но менее точно.
  • Явность симуляции точек зрения — можно убрать "рассуждай с точки зрения каждого участника" → модель даст общий анализ без детальной симуляции мышления каждого. Проще, но может упустить стратегические нюансы.
📋

Шаблон промпта

Для сложных задач со стратегическим взаимодействием:

СТРУКТУРА СИТУАЦИИ (Context Formation):
- Участники: {перечисли всех участников ситуации}
- Текущее состояние: {что происходит сейчас}
- Цель каждого участника: {что каждый хочет достичь}
- Что видит каждый участник: {какая информация доступна каждому}
- Альтернативы каждого: {какие действия может выбрать каждый}
- Ограничения: {издержки, барьеры, правила}

ПРОЦЕСС РАССУЖДЕНИЯ (Context Navigation):
Рассуждай с точки зрения каждого участника:

1. {Участник 1} видит {информация}. Что они думают?
   - Какие намерения других участников?
   - Если {действие}, то какие последствия?
   - Что сделают другие участники в ответ?

2. {Участник 2} делает те же расчёты, но также думает о реакции {Участник 1}

3. {Опиши любые дополнительные взаимозависимости}

Проанализируй ситуацию через {N} раундов:
- Раунд 1: {что происходит в первом периоде}
- Раунд 2: {корректировки после наблюдения}
- Раунд {N}: {финальное состояние}

В каждом раунде покажи: что видит каждый участник, 
какие ожидания формирует о действиях других, какое решение принимает.

Для простых задач без стратегического взаимодействия (достаточно Context Formation):

СТРУКТУРА ЗАДАЧИ:
- Кто принимает решение: {участник}
- Цель: {что хочет достичь}
- Доступная информация: {что известно}
- Альтернативы: {какие варианты есть}
- Критерии выбора: {как оценивать варианты}

Проанализируй варианты и рекомендуй решение.

Пояснение плейсхолдеров: - {участники} — все стороны, чьи решения влияют друг на друга (компании, отделы, люди) - {что видит каждый} — критично! Информация часто асимметрична - {N раундов} — для динамических ситуаций: 2-3 раунда для быстрого анализа, 5+ для сложной динамики - {намерения других} — ключ к стратегическому мышлению: что каждый думает о целях других

🚀 Быстрый старт — вставь в чат:

Вот шаблон Context Formation & Navigation для анализа сложных решений 
со стратегическим взаимодействием. Адаптируй под мою задачу: [опиши свою ситуацию]. 

Задавай вопросы, чтобы заполнить структуру и процесс рассуждения.

[вставить шаблон выше]

LLM спросит про участников, их цели, доступную информацию и взаимозависимости — потому что это нужно для правильной интерпретации структуры задачи. Она возьмёт паттерн двухступенчатого анализа и адаптирует под твою ситуацию.

⚠️

Ограничения

⚠️ Избыточность для простых задач: Если нет стратегического взаимодействия (участники не зависят друг от друга, не формируют ожидания о действиях других), достаточно Context Formation. Полная структура с Navigation замедляет анализ без выигрыша в качестве.

⚠️ Требует понимания структуры от пользователя: Нужно самому определить, кто участники, что они видят, какие у них цели. Если ты не понимаешь структуру задачи — сложно заполнить шаблон. Можно попросить LLM помочь с этим ("помоги определить участников и их цели"), но окончательная проверка — на тебе.

⚠️ Не гарантирует точность прогнозов: Принцип улучшает процесс рассуждения модели, делает его более структурированным и учитывающим стратегическое взаимодействие. Но качество прогноза всё равно ограничено знаниями модели и информацией в промпте. Если не хватает данных о рынке или поведении конкурентов — анализ будет спекулятивным.

⚠️ Модель всё равно может ошибаться в сложных равновесиях: В теоретико-игровых ситуациях с множественными равновесиями или тонкими стратегическими нюансами LLM может не найти оптимальное решение, даже с правильной структурой. Принцип снижает расхождение с человеческим поведением, но не устраняет полностью.

🔍

Как исследовали

Исследователи из Гонконгского университета взяли три установленных эксперимента из поведенческой экономики и проверили, насколько LLM могут воспроизвести человеческие решения. Два эксперимента были сложными (игра с последовательными покупками, где время ожидания сигнализирует о качестве; краудфандинговая игра с дорогостоящими сигналами), один — простой (оценка спроса по закону спроса и предложения).

Ключевая идея: систематически варьировать, что именно дают модели — только описание задачи (baseline), описание + структуру (Context Formation), или описание + структуру + направление рассуждений (Context Formation + Navigation). Это позволило изолировать вклад каждого этапа в улучшение соответствия человеческому поведению.

Тестировали на четырёх SOTA моделях: GPT-4o, GPT-5, Claude-4.0-Sonnet-Thinking, DeepSeek-R1. Для каждой комбинации модели и условия промпта прогоняли тысячи симуляций решений и сравнивали распределение выборов с реальными человеческими данными из оригинальных экспериментов.

Что удивило: В простой задаче оценки спроса Context Formation одна дала почти полное соответствие — модели сразу поняли, как правильно рассуждать, когда структура стала явной. Но в сложных играх даже с Context Formation модели сильно расходились с людьми — только добавление Context Navigation (явное указание "рассуждай с точки зрения каждого участника, учти их ожидания о действиях других") резко улучшило соответствие. Это показало иерархию: правильная интерпретация задачи — необходимое, но не достаточное условие для сложных стратегических сред.

Инсайт для практики: Если задача включает взаимозависимость решений (действия одних влияют на оптимальность действий других) или эндогенное формирование убеждений (участники делают выводы о ситуации, наблюдая за поведением других), недостаточно просто хорошо описать задачу. Нужно явно направить процесс рассуждения, заставив модель проговорить, как каждый участник думает о намерениях и действиях других. Без этого модель может рассуждать логично, но в неправильной системе координат — например, игнорируя сигнальную ценность наблюдаемого поведения.

💡

Адаптации и экстраполяции

📌

🔧 Техника: Явное разделение этапов → прозрачность и контроль

Вместо одного сплошного промпта, дай модели отдельные инструкции для каждого этапа:

ШАГ 1: Сформулируй структуру ситуации
Опиши участников, их цели, доступную информацию, альтернативы.
Покажи мне структуру перед тем как рассуждать.

[Проверяешь, правильно ли модель поняла структуру]

ШАГ 2: Теперь рассуждай
С учётом этой структуры, проанализируй ситуацию через {N} раундов.
Покажи, как каждый участник формирует ожидания о действиях других.

Эффект: Ты видишь, правильно ли модель интерпретировала задачу, до того как она начала рассуждать. Можешь скорректировать структуру, если что-то упущено. Особенно полезно для новых типов задач, где не уверен в правильности своей интерпретации.


📌

🔧 Техника: Добавь "проверку ожиданий" → выявление скрытых допущений

После Context Formation, но перед Navigation, попроси модель явно сформулировать ключевые допущения:

ПОСЛЕ Context Formation, ПЕРЕД Navigation:

Перечисли ключевые допущения, которые ты делаешь о:
1. Рациональности участников (насколько они логичны vs эмоциональны)
2. Информированности (что знает каждый о целях других)  
3. Горизонте планирования (думают ли они на 1 шаг вперёд или на N шагов)
4. Доверии (насколько участники доверяют намерениям других)

Эти допущения правильны для данной ситуации?

Эффект: LLM часто делает неявные допущения о рациональности или информированности участников, которые могут не соответствовать реальности. Явная проверка помогает выявить и скорректировать эти допущения перед основным анализом.


📌

🔧 Техника: Симуляция конкретных персон → реалистичность поведения

Вместо абстрактных "Участник 1", "Участник 2", дай конкретные персоны с характером:

СТРУКТУРА СИТУАЦИИ:
- Участник 1: Олег Тиньков — агрессивный предприниматель, 
  склонен к риску, думает на 3 шага вперёд
- Участник 2: Герман Греф — консервативный управленец, 
  избегает риска, фокус на стабильности
- Участник 3: Молодой стартапер — гибкий, готов экспериментировать, 
  ограничен в ресурсах

ПРОЦЕСС РАССУЖДЕНИЯ:
Рассуждай с точки зрения каждой персоны, учитывая их характер...

Эффект: Модель острее симулирует различия в поведении участников, когда у них есть характер и стиль, а не просто "цели" и "ограничения". Особенно полезно для анализа ситуаций, где различия в склонности к риску или горизонте планирования критичны.


🔗

Ресурсы

Improving Behavioral Alignment in LLM Social Simulations via Context Formation and Navigation Авторы: Letian Kong, Qianran (Jenny) Jin, Renyu (Philip) Zhang CUHK Business School, The Chinese University of Hong Kong

Исследование опирается на теорию человеческого решения проблем Simon and Newell (1971), Newell and Simon (1972).

Эмпирическая валидация через репликацию экспериментов: - Kremer and Debo (2016) — sequential purchasing game - Cason et al. (2025) — crowdfunding game

- Gui and Toubia (2025) — demand estimation task


📋 Дайджест исследования

Ключевая суть

LLM может рассуждать логично, но теряется в задачах со стратегическим взаимодействием. Там, где участники зависят друг от друга и предугадывают чужие действия (ценовые войны, переговоры, рыночная динамика), модель не улавливает структуру. Пример: в игре с последовательными покупками LLM видит 'время ожидания', но не понимает что это сигнал о качестве товара — для неё это просто задержка. Метод позволяет получить адекватный анализ в сложных средах принятия решений. Фишка: разбить промпт на два явных этапа. Первый — Context Formation: опиши структуру (кто участники, что видят, какие цели, какие альтернативы). Второй — Context Navigation: направь рассуждения (как каждый оценивает ситуацию, что думает о действиях других, как формирует ожидания). Для простых задач хватает первого этапа. Для сложных нужны оба.

Принцип работы

Процесс в два этапа. Этап 1 — Context Formation: явно опиши структуру ситуации. Участники, их цели, доступная информация, альтернативы, ограничения. Это фиксирует правильную интерпретацию задачи — кто что видит, кто от кого зависит. Этап 2 — Context Navigation: направь процесс рассуждения. Заставь модель явно проговорить: как каждый участник формирует ожидания о действиях других. Что думает участник А о намерениях участника Б? Как участник Б отреагирует на действие А? Проведи анализ через несколько раундов — модель показывает динамику ожиданий и корректировок. Оба этапа в одном промпте, но структурированы как отдельные блоки.

Почему работает

Слабость LLM: модель может рассуждать логично, но в неправильной системе координат. В задачах со стратегическим взаимодействием она не всегда улавливает, что действия одних зависят от ожиданий о действиях других. Видит слова, но упускает структуру взаимозависимости. Пример: в ценовой войне модель рассчитает прямой эффект снижения цены, но может упустить что конкуренты тоже будут реагировать, наблюдая за нашими действиями. Сильная сторона LLM: отлично рассуждает пошагово, следует явным инструкциям, может симулировать разные точки зрения. Двухступенчатая структура устраняет двусмысленность. Context Formation делает явной структуру — кто что видит, какие цели. Это фиксирует правильную интерпретацию. Context Navigation направляет рассуждения в нужное русло — модель явно проговаривает как каждый формирует ожидания и как эти ожидания влияют на решения. Без этого модель рассуждает логично, но мимо цели.

Когда применять

Сложные задачи со стратегическим взаимодействием → конкретно для ситуаций где участники зависят друг от друга и предугадывают чужие действия. Ценовые войны (как отреагируют конкуренты на наше снижение цен), переговоры (что другая сторона думает о наших намерениях), запуск продукта (как рынок интерпретирует наши сигналы), рыночная динамика (как формируются ожидания участников). Особенно когда есть последовательность действий и наблюдений — каждый видит действия других и корректирует свои ожидания. НЕ подходит для простых задач без взаимозависимости участников — там избыточность. Если участники не влияют друг на друга, хватает Context Formation.

Мини-рецепт

1. Опиши структуру (Context Formation): участники, текущее состояние, цель каждого, что видит каждый, альтернативы, ограничения. Критично: информация часто асимметрична — явно укажи кто что знает.

2. Направь рассуждения (Context Navigation): попроси модель рассуждать с точки зрения каждого участника. Что думает участник А о намерениях Б? Если А сделает X, как отреагирует Б? Что А думает о реакции Б? Проведи анализ через несколько раундов (2-3 для быстрого анализа, 5+ для сложной динамики). В каждом раунде: что видит каждый, какие ожидания формирует, какое решение принимает.

3. Для простых задач: если нет стратегического взаимодействия, пропускай второй этап. Достаточно Context Formation — структура задачи, цель, альтернативы, критерии выбора.

Примеры

[ПЛОХО] : Мы снижаем цену на тариф с 1000₽ до 800₽. Как отреагируют МТС и Билайн? Какую долю рынка получим через 3 месяца?
[ХОРОШО] : СТРУКТУРА СИТУАЦИИ: Участники — мы, МТС, Билайн. Текущая цена у всех 1000₽. Наша цена 800₽. Цель каждого — максимизировать прибыль (не просто долю рынка). Что видят конкуренты — нашу новую цену публично. Альтернативы конкурентов — снизить цену, оставить как есть, улучшить условия. Маржа около 40% при цене 1000₽. Абоненты могут сменить оператора, но есть барьер. ПРОЦЕСС РАССУЖДЕНИЯ: Рассуждай с точки зрения каждого. МТС видит нашу цену 800₽. Что они думают? Какие наши намерения — захват доли vs временная акция? Если они снизят до 800₽, сколько потеряют в выручке vs сколько сохранят абонентов? Что сделает Билайн если МТС снизит? Проанализируй через 3 раунда: месяц 1 — первая реакция, месяц 2 — корректировки после наблюдения оттока, месяц 3 — новое равновесие. В каждом раунде покажи что видит каждый участник, какие ожидания формирует о действиях других, какое решение принимает.
Источник: Improving Behavioral Alignment in LLM Social Simulations via Context Formation and Navigation
ArXiv ID: 2601.01546 | Сгенерировано: 2026-01-17 23:24

Проблемы LLM

ПроблемаСутьКак обойти
Модель не видит взаимозависимость решений участниковВ задачах со стратегическим взаимодействием (конкуренция, переговоры, многосторонние решения) модель рассуждает про каждого участника отдельно. Упускает ключевое: действие А зависит от того, что А думает о действиях Б. А действие Б — от того, что Б думает о действиях А. Модель видит факты, но не понимает, что факты — это сигналы о намерениях других. Например: в ценовой войне рассчитает прямой эффект твоего снижения цены, но не учтёт, что конкуренты будут реагировать, наблюдая твои действия. Или: увидит "покупатели ждут", но не поймёт, что ожидание — сигнал о качестве товараРазбей промпт на два блока. Блок 1 — структура: явно опиши кто участники, что видит каждый, какие цели, какие альтернативы. Блок 2 — взаимные ожидания: направь рассуждения: "Рассуждай с точки зрения каждого участника. Что А думает о намерениях Б? Если А сделает X, что Б подумает и как отреагирует? Что А думает о реакции Б?" Для простых задач без стратегического взаимодействия достаточно блока 1
📖 Простыми словами

Improving Behavioral Alignment inLLMSocial Simulations via Context Formation and Navigation

arXiv: 2601.01546

Суть в том, что когда ты просишь нейронку разрулить сложную ситуацию с кучей участников, она часто тупит и ведет себя как наивный теоретик. Модель понимает слова, но в упор не видит скрытых пружин: кто на кого смотрит, кто от кого зависит и как чужие действия меняют правила игры. Метод Context Formation & Navigation лечит эту близорукость. Вместо того чтобы просто вывалить на LLM описание задачи, мы насильно впихиваем её в жесткую структуру: четко прописываем, кто что видит, какие у кого цели и как каждый шаг одного игрока становится сигналом для другого.

Это как играть в покер с человеком, который знает правила, но не понимает концепцию блефа. Формально он в игре, но по факту — легкая добыча. Без правильной настройки контекста нейронка видит очередь в магазин просто как задержку по времени, хотя для нормального человека это сигнал о качестве — раз стоят, значит, там что-то стоящее. Метод заставляет модель перестать быть «просто чат-ботом» и превращает её в стратегического аналитика, который понимает, что действия конкурентов — это не случайный шум, а реакция на твои собственные шаги.

Чтобы это взлетело, нужно использовать два рычага. Первый — структурирование контекста: ты буквально рисуешь карту, где указано, кто из игроков обладает какой информацией. Второй — навигация по рассуждениям: ты заставляешь модель проговорить, как один участник оценивает ситуацию глазами другого. Например, если ты демпингуешь цены, модель должна не просто посчитать твою прибыль, а проанализировать реакцию рынка: «МТС увидит мой тариф за 800 рублей и через неделю выкатит за 750, чтобы не потерять долю». Только так получается адекватный прогноз, а не гадание на кофейной гуще.

Хотя метод обкатывали на социальных симуляциях и играх, этот принцип универсален. Он жизненно необходим везде, где есть конкурентная борьба или сложные переговоры: от запуска нового продукта до планирования маркетинговых войн. Если ты просто спросишь ChatGPT «что будет, если я снижу цену», ты получишь банальный ответ из учебника. Но если применишь Context Formation, модель начнет учитывать психологию толпы и ответные удары конкурентов, превращаясь из игрушки в реальный инструмент для бизнеса.

Короче: LLM по умолчанию слишком прямолинейны и часто лажают в многоходовочках. Чтобы получить вменяемый результат, нужно перестать кормить их голыми фактами и начать явно задавать правила игры и логику взаимодействия. Либо ты прописываешь контекст и навигацию, либо получаешь галлюцинации о том, как рынок радостно отдаст тебе все деньги. Стратегическое выравнивание — это единственный способ заставить нейронку думать не как словарь, а как гроссмейстер.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с