3,583 papers

Меню

arXiv:2602.05447 83 5 фев. 2026 г. FREE

File-Native Context Engineering: как структурировать знания для LLM в файлах

КЛЮЧЕВАЯ СУТЬ
Парадокс: Засунуть всё в промпт — хуже чем дать модели файлы и инструменты поиска. 9,649 экспериментов на SQL generation показали: frontier модели (Claude, GPT, Gemini) стали точнее на +2.7% когда искали данные в файлах через grep/read вместо чтения из промпта. Но для половины open-source моделей файлы убили точность: Qwen и Llama Maverick потеряли до 22%. Фишка подхода: навигируемая база знаний вместо монолитного контекста. Раскладываешь информацию по файлам (schema.yaml, rules.md, navigator.md) — модель сама находит релевантный кусок и читает только его. Решает проблему "lost in the middle" и экономит токены.
Адаптировать под запрос

TL;DR

File-Native Context Engineering — принцип организации контекста для LLM: вместо того чтобы запихивать всё в один промпт, ты раскладываешь знания по файлам (схемы данных, документацию, правила), а модель сама ищет нужное через file operations. Исследование проверило это на задаче генерации SQL: 9,649 экспериментов, 11 моделей, 4 формата (YAML, Markdown, JSON, TOON), схемы от 10 до 10,000 таблиц. Сравнивали два подхода: File Agent (модель читает файлы по требованию через grep/read) vs Prompt Baseline (вся схема БД сразу в промпте).

Главная находка бьёт по универсальным рецептам: file-based подход работает по-разному для разных моделей. Frontier-модели (Claude, GPT, Gemini) стали точнее на +2.7% когда искали в файлах вместо чтения из промпта. Open-source модели показали смешанные результаты: одни (DeepSeek, Llama Scout) сработали примерно одинаково, другие (Qwen, Llama Maverick) провалились с файлами и потеряли до 22% точности. Причина: разное качество обучения работе с инструментами. Формат почти не влияет на точность (YAML 75.4%, Markdown 74.9%, JSON 72.3%), но влияет на эффективность: YAML съел на 28-60% меньше токенов, чем остальные.

Метод решает проблему масштаба через партиционирование по доменам: вместо одного файла с 10,000 таблиц — несколько файлов по ~250 таблиц (продажи, клиенты, склад). Модель сначала ищет в каком домене нужная таблица, потом читает только этот файл. Точность навигации осталась высокой даже на 10,000 таблиц. Неожиданный эффект: компактный формат TOON (на 25% меньше по размеру файла) съел в 7 раз больше токенов на больших схемах — "grep tax". Модели не знают синтаксис TOON, делают много неудачных попыток поиска, каждая попытка добавляет токены в контекст.

🔬

Схема метода

File-Native Architecture (применительно к ChatGPT/Claude Projects):

ПОДГОТОВКА:
1. Структурируй знания → файлы по темам/доменам
   - schema.yaml — структура данных
   - navigator.md — обзор и описания
   - rules.md — бизнес-правила

2. Выбери формат → YAML для компактности, MD для читаемости

3. Партиционируй если >100 объектов → файлы по доменам (~250 объектов на файл)

ИСПОЛЬЗОВАНИЕ В ЧАТЕ:
1. Загрузи файлы в проект/чат
2. Дай задачу → модель сама найдёт нужные файлы
3. Модель читает только релевантное → меньше "lost in the middle"

Для frontier моделей (GPT-4+, Claude Opus/Sonnet, Gemini Pro) — работает из коробки. Для open-source — проверь сначала на малых данных.

🚀

Пример применения

Задача: Ты ведёшь онлайн-магазин на 300+ товаров в 15 категориях. Нужно быстро отвечать на вопросы про товары, остатки, характеристики — но запихивать весь каталог в промпт неудобно.

Подготовь файлы:

catalog_navigator.md:

# Навигатор по каталогу

## Структура
- electronics.yaml — электроника (смартфоны, ноутбуки, наушники)
- clothing.yaml — одежда (футболки, джинсы, обувь)
- home.yaml — для дома (посуда, текстиль, декор)
...

## Как искать
Если вопрос про характеристики → смотри в соответствующий .yaml
Если про остатки → поле stock_quantity
Если про цены → поле price_rub

electronics.yaml:

category: Электроника
tables:
  - name: smartphones
    description: Смартфоны всех брендов
    columns:
      - name: model
        type: string
        description: Модель телефона
      - name: price_rub
        type: integer
        description: Цена в рублях
      - name: stock_quantity
        type: integer
        description: Остаток на складе
      - name: ram_gb
        type: integer
        description: Оперативная память в ГБ

  - name: laptops
    description: Ноутбуки
    columns:
      - name: model
      - name: price_rub
      - name: processor
      - name: screen_inches

Загрузи файлы в проект → пиши вопросы:

"Какие смартфоны с 8+ ГБ памяти есть в наличии до 50,000 рублей?"

Результат: Модель прочитает navigator.md → поймёт что нужен electronics.yaml → откроет его → найдёт таблицу smartphones → прочитает структуру → выдаст результат с фильтрацией по ram_gb ≥ 8, price_rub ≤ 50000, stock_quantity > 0. Вместо обработки всех 300 товаров в промпте — прочитала только релевантный кусок.

🧠

Почему это работает

Слабость LLM: "Lost in the middle" — модели хуже используют информацию из середины длинного контекста. Если запихнуть схему на 10,000 таблиц в промпт, модель может пропустить нужную таблицу если она оказалась в середине списка. Плюс большой контекст = много токенов = дорого и медленно.

Сильная сторона LLM: Frontier-модели отлично используют инструменты (file read, search) — это часть их обучения. Они умеют разбивать задачу на шаги: "найди в каком файле это → прочитай файл → найди в файле нужное → используй".

Как метод использует это: File-native подход превращает один большой контекст в навигируемую базу знаний. Модель читает только то что нужно сейчас. Navigator.md даёт карту → модель ориентируется → читает конкретный файл → получает точный кусок данных. Это решает "lost in the middle" и экономит токены. Но работает только если модель натренирована на tool use — поэтому open-source модели проваливаются.

Рычаги управления:

  • Гранулярность файлов: один файл на 10 доменов vs 10 файлов по домену → больше файлов = точнее поиск, но больше навигационных шагов
  • Формат: YAML съедает меньше токенов при retrieval (compact key-value), Markdown читабельнее для человека
  • Navigator.md: чем подробнее описания доменов → тем точнее модель выбирает файл с первой попытки
  • Размер партиций: 50 vs 500 объектов на файл → меньше партиции = меньше шума в каждом файле, но больше навигационных шагов
📋

Шаблон промпта

Структура файлов для file-native context:

1. Navigator файл (navigator.md или _index.yaml):

# Навигатор: {название системы}

## Структура знаний
- {файл_1}.yaml — {что содержит}: {краткое описание}
- {файл_2}.yaml — {что содержит}: {краткое описание}
...

## Как искать
Если вопрос про {тип_задачи_1} → смотри {файл_1}
Если вопрос про {тип_задачи_2} → смотри {файл_2}

## Форматы
Все .yaml файлы используют структуру:
{описание формата данных}

2. Файлы с данными (YAML для компактности):

domain: {название домена}
description: {что описывает}

entities:
  - name: {имя сущности}
    description: {что это}
    fields:
      - name: {поле}
        type: {тип}
        description: {что означает}
      - name: {поле_2}
        type: {тип}
        description: {что означает}

  - name: {имя сущности_2}
    fields:
      ...

Как использовать: 1. Создай navigator.md — карту всех файлов 2. Раздели данные по доменам/темам в отдельные .yaml/.md 3. Загрузи все файлы в ChatGPT Project / Claude Project / через file upload 4. Пиши задачи — модель сама найдёт нужный файл через navigator

Партиционирование для больших объёмов (>500 объектов): - Разбивай по доменам: ~250 объектов на файл - Называй файлы говорящими именами: sales_schema.yaml, customers_schema.yaml - В navigator.md — чёткие границы доменов

🚀 Быстрый старт — вставь в чат с загруженными файлами:

У меня есть {описание данных/системы}. Помоги структурировать это в file-native формат:
1. Раздели по доменам (оптимально ~250 объектов на файл)
2. Создай navigator.md с картой файлов
3. Для каждого домена создай .yaml файл по шаблону выше

Моя система: {описание}

Модель спросит про структуру данных, связи, логику разделения — потому что ей нужно понять границы доменов для эффективного партиционирования. Она возьмёт шаблон и создаст структуру под твои данные.

⚠️

Ограничения

⚠️ Модель-специфичность: Open-source модели (особенно Qwen, Llama Maverick) проваливаются с file-based подходом и теряют до 22% точности. Всегда проверяй на малых данных перед масштабированием. Frontier модели (Claude 3.5+, GPT-4+, Gemini 1.5+) работают стабильно.

⚠️ Домен применения: Исследование тестировали на SQL generation — structured, unambiguous задача. Для творческих задач где контекст = вдохновение (писать в стиле автора X) эффект может быть другим. Работает лучше всего для справочной информации: схемы, документация, правила, каталоги.

⚠️ Grep tax для кастомных форматов: Если используешь свой формат (не YAML/JSON/Markdown) — модель потратит в разы больше токенов на поиск, потому что не знает паттернов. На 10,000 таблиц TOON (кастомный формат) съел в 7 раз больше токенов чем YAML.

⚠️ Барьер на некоторых платформах: Работает отлично в ChatGPT Projects, Claude Projects, API с file search. Не работает в обычном чате без file upload (придётся копипастить).

🔍

Как исследовали

Команда взяла TPC-DS — стандартный бенчмарк схемы базы данных (24 таблицы, retail domain: клиенты, продажи, склад). Создали 100 SQL-запросов разной сложности: от простых (L1: "найди покупателя") до сложных (L5: многошаговые запросы с подзапросами и оконными функциями). Задача модели: сгенерировать корректный SQL по natural language вопросу.

Проверили 11 моделей (Claude Opus/Haiku, GPT-4.5/mini, Gemini Pro/Flash, DeepSeek, Kimi, Llama 4, Qwen) в двух режимах: (1) File Agent — модель ищет в schema.yaml через grep/read, (2) Prompt Baseline — вся схема сразу в промпте. По 4 форматам: YAML, Markdown, JSON, TOON. Оценивали через Jaccard similarity результатов запросов: если модель получила то же что ground truth — success.

Почему результаты получились такими: Frontier модели (+2.7% с файлами) выиграли потому что избежали "lost in the middle" — не читали всю схему, а выбирали релевантное. Open-source модели провалились потому что плохо обучены на tool use: Qwen делал лишние grep-попытки, терял контекст, путался. DeepSeek справился лучше — видимо, больше примеров file operations в обучении.

Что удивило: TOON (компактный формат, на 25% меньше файл) съел в 7 раз больше токенов на 10,000 таблиц. Логика: модели не знают синтаксис TOON → пробуют паттерны из YAML/JSON → каждая неудачная попытка добавляет токены → на больших схемах накапливается "grep tax". При этом формат не повлиял на точность — только на efficiency. Это показало что file size ≠ runtime tokens: важна не компактность файла, а знакомость паттернов для эффективного поиска.

Инсайт для практики: Не оптимизируй формат ради размера файла — оптимизируй ради grep-friendly структуры. YAML выиграл не потому что компактен, а потому что модели знают паттерны (tables:, columns:, name:). Масштабирование работает не через уменьшение файла, а через партиционирование: на 10,000 таблиц модель читала только ~250 из нужного домена — контекст оставался bounded.

📄

Оригинал из исследования

YAML Schema Format (использовался в эксперименте):

tables:
  - name: store_sales
    description: Sales transactions at physical stores
    columns:
      - name: ss_sold_date_sk
        type: integer
        description: Date key for sale transaction
      - name: ss_item_sk
        type: integer
        description: Item key, references item table
      - name: ss_customer_sk
        type: integer
        description: Customer key
      - name: ss_quantity
        type: integer
        description: Quantity sold
      - name: ss_sales_price
        type: decimal
        description: Price at which item was sold
    foreign_keys:
      - column: ss_sold_date_sk
        references: date_dim.d_date_sk
      - column: ss_item_sk
        references: item.i_item_sk
      - column: ss_customer_sk
        references: customer.c_customer_sk

  - name: customer
    description: Customer dimension
    columns:
      - name: c_customer_sk
        type: integer
        description: Customer surrogate key
      - name: c_current_addr_sk
        type: integer
        description: Current address key
      - name: c_first_name
        type: string
      - name: c_last_name
        type: string

Navigator.md structure (из исследования):

# Schema Navigator

## Overview
TPC-DS retail data warehouse schema with 24 tables across 4 domains:
- Sales (store_sales, web_sales, catalog_sales)
- Customers (customer, customer_address, customer_demographics)
- Items (item, warehouse, inventory)
- Time (date_dim, time_dim)

## How to search
For questions about:
- Sales transactions → store_sales, web_sales, catalog_sales
- Customer information → customer, customer_address
- Product details → item, warehouse
- Time periods → date_dim, time_dim

## Relationships
All sales tables link to:
- date_dim via *_sold_date_sk
- item via *_item_sk
- customer via *_customer_sk

Контекст: Исследователи использовали эту структуру для всех YAML-экспериментов. Navigator.md был одинаков для всех форматов, менялась только структура основных schema-файлов.

💡

Адаптации и экстраполяции

💡 Адаптация для бизнес-процессов: Не только для схем БД — применимо для любых structured знаний.

Пример: база знаний для поддержки клиентов

support_navigator.md:

# База знаний техподдержки

## Структура
- billing_rules.yaml — правила тарификации, подписки, возвраты
- technical_specs.yaml — характеристики продуктов, совместимость
- common_issues.yaml — типовые проблемы и решения
- escalation_rules.yaml — когда эскалировать на L2/L3

## Как искать
Если вопрос про оплату/возврат → billing_rules.yaml
Если про "не работает" → common_issues.yaml, раздел по продукту
Если про характеристики → technical_specs.yaml

common_issues.yaml:

product: Мобильное приложение iOS
issues:
  - symptom: "Не приходят пуш-уведомления"
    causes:
      - Выключены в настройках iOS
      - Не дано разрешение при первом запуске
      - Бета-версия приложения
    solution: |
      1. Настройки → {Название приложения} → Уведомления → включить
      2. Если не помогло → переустановить приложение (разрешение спросит заново)
      3. Если beta → обновить на стабильную из App Store
    escalate_if: "После шагов 1-3 проблема осталась"

  - symptom: "Тормозит интерфейс"
    causes:
      - iOS версии ниже 15
      - Мало памяти на устройстве
    solution: |
      1. Проверь iOS: Настройки → Основные → Об этом устройстве
      2. Если iOS 14 → предложи обновление
      3. Проверь хранилище → Настройки → Основные → Хранилище

Загружаешь в проект → чат становится L1 support с мгновенным доступом к процедурам.

🔧 Техника: партиционирование по частоте использования → оптимизация токенов

Вместо партиционирования только по доменам — раздели на hot (часто нужное) и cold (редко):

_index.yaml:

partitions:
  hot:
    file: frequent_queries.yaml
    description: 20% сущностей которые в 80% вопросов
    use_case: ["pricing", "availability", "топ-10 товаров"]

  cold:
    file: full_catalog.yaml
    description: Полный каталог для редких запросов
    use_case: ["специфичные характеристики", "редкие категории"]

Эффект: большинство запросов читает только hot файл (меньше, релевантнее) → меньше токенов → быстрее → дешевле. Фоллбэк на cold только если в hot не нашли.

💡 Экстраполяция: комбинация с Chain-of-Thought для сложных запросов

Задача: {сложный запрос требующий данные из нескольких доменов}

Шаг 1: Декомпозиция
Разбей задачу на подзадачи. Для каждой подзадачи определи какие файлы нужны.

Шаг 2: Navigation
Для каждого файла:
- Прочитай navigator.md раздел про этот файл
- Найди нужную сущность через grep
- Прочитай только релевантный раздел

Шаг 3: Synthesis
Скомбинируй данные из всех источников, ответь на исходный вопрос.

Доступные файлы: {список из navigator.md}

Это комбинирует file-native retrieval с явным рассуждением — для задач где нужно собрать данные из 3+ доменов.

🔗

Ресурсы

Structured Context Engineering for File-Native Agentic Systems: Evaluating Schema Accuracy, Format Effectiveness, and Multi-File Navigation at Scale (2025)

  • TPC-DS Benchmark: https://www.tpc.org/tpcds/
  • Model Context Protocol: https://modelcontextprotocol.io/
  • TOON Format: https://toonformat.dev/
  • Spider Benchmark (text-to-SQL): arXiv:1809.08887
  • "Lost in the Middle" (Liu et al., 2024): arXiv:2307.03172
  • Context Engineering Survey (Mei et al., 2025): arXiv:2507.13334

Автор: Damon McMillan, HxAI Australia


📋 Дайджест исследования

Ключевая суть

Парадокс: Засунуть всё в промпт — хуже чем дать модели файлы и инструменты поиска. 9,649 экспериментов на SQL generation показали: frontier модели (Claude, GPT, Gemini) стали точнее на +2.7% когда искали данные в файлах через grep/read вместо чтения из промпта. Но для половины open-source моделей файлы убили точность: Qwen и Llama Maverick потеряли до 22%. Фишка подхода: навигируемая база знаний вместо монолитного контекста. Раскладываешь информацию по файлам (schema.yaml, rules.md, navigator.md) — модель сама находит релевантный кусок и читает только его. Решает проблему "lost in the middle" и экономит токены.

Принцип работы

Вместо "всё в один промпт" → структура из файлов по доменам. Navigator.md даёт карту ("электроника тут, одежда там"), модель смотрит карту → понимает где искать → читает конкретный файл → получает только релевантную часть. Для 10,000 таблиц не один файл, а партиции по ~250 таблиц (продажи, клиенты, склад). Модель сначала выбирает домен, потом читает файл. Это как библиотека с каталогом — не перелистываешь все книги, а идёшь в нужный зал.

Почему работает

Frontier модели натренированы на tool use — они умеют разбивать задачу на шаги (найти файл → прочитать → извлечь нужное). Точечное чтение решает "lost in the middle" — вместо 10k таблиц в промпте модель видит только 250 релевантных. YAML съел на 28-60% меньше токенов при retrieval чем JSON/Markdown — компактный key-value формат. Но есть нюанс: кастомный формат TOON (на 25% компактнее по размеру файла) сожрал в 7 раз больше токенов на поиске. Модели не знают его синтаксис, делают много неудачных grep-попыток — "grep tax". Open-source модели с плохим обучением tool use теряют до 22% точности — им проще когда всё в промпте.

Когда применять

Справочная информация где важна точность навигации: схемы данных, документация API, каталоги товаров, базы знаний компании. Особенно когда объём >100 сущностей — иначе проще засунуть в промпт. Работает в ChatGPT Projects, Claude Projects, API с file search. НЕ подходит для творческих задач где весь контекст = вдохновение (стиль автора, атмосфера). И не работает для слабых open-source моделей без качественного tool use обучения.

Мини-рецепт

1. Создай navigator.md: карта всех файлов с описанием что где лежит. Пример: electronics.yaml — смартфоны, ноутбуки, наушники | clothing.yaml — футболки, джинсы, обувь
2. Раздели данные по доменам: ~250 объектов на файл. Для 1000 товаров = 4 файла по категориям
3. Выбери формат: YAML если важна экономия токенов, Markdown если файлы будут читать люди. НЕ используй кастомные форматы (grep tax)
4. Структура .yaml файла:
``yaml
domain: Название
entities:
- name: сущность
fields:
- name: поле
type: тип
description: что означает
``
5. Загрузи файлы в проект (ChatGPT/Claude Projects) → пиши задачи, модель сама найдёт нужное
6. Проверь на малых данных если используешь open-source модель

Примеры

[ПЛОХО] : У меня интернет-магазин на 300 товаров в 15 категориях. Вот полный каталог: [копипаст всех товаров с характеристиками]. Найди смартфоны с 8 ГБ памяти до 50к рублей
[ХОРОШО] : Создаёшь файлы: - navigator.md (карта категорий) - electronics.yaml (смартфоны, ноутбуки с полями model, ram_gb, price_rub, stock) - clothing.yaml, home.yaml... Загружаешь в проект → пишешь: Какие смартфоны с 8+ ГБ памяти есть в наличии до 50к? Модель читает navigator → понимает что нужен electronics.yaml → открывает его → находит таблицу smartphones → фильтрует по ram_gb ≥ 8, price_rub ≤ 50000, stock > 0. Прочитала 50 товаров вместо 300.
Источник: Structured Context Engineering for File-Native Agentic Systems: Evaluating Schema Accuracy, Format Effectiveness, and Multi-File Navigation at Scale
ArXiv ID: 2602.05447 | Сгенерировано: 2026-02-06 05:29

Методы

МетодСуть
Навигируемая база знаний — раздели контекст на файлыВместо одного промпта со всеми данными раскладываешь знания по файлам (схемы, правила, каталоги). Создаёшь файл-навигатор с картой: какой файл что содержит. Загружаешь файлы в проект (ChatGPT Projects, Claude). Модель сама находит нужный файл через навигатор и читает только релевантное. Почему работает: Решает "lost in the middle" — большой промпт размывает внимание, модель хуже находит нужное из середины списка. С файлами читает только нужный кусок. Плюс экономит токены — вместо 10,000 объектов в контексте обрабатывает 250 из нужного файла. Когда применять: Справочная информация (каталоги >100 товаров, документация, схемы БД, базы знаний). Разбивай на ~250 объектов на файл для оптимального баланса. Когда не работает: Творческие задачи где весь контекст = вдохновение (стиль автора). Open-source модели со слабым tool use (Qwen, старые Llama) проваливаются — проверяй на малых данных. Frontier модели (Claude 3.5+, GPT-4+, Gemini 1.5+) работают из коробки

Тезисы

ТезисКомментарий
Формат данных почти не влияет на точность, но сильно на расход токеновВыбираешь YAML, Markdown или JSON для структурированных данных — точность результата примерно одинаковая (разница 1-3%). Но YAML экономит 30-60% токенов при чтении модель находит нужное компактнее. Механизм: YAML использует короткий синтаксис key-value без лишних скобок и кавычек. Меньше символов меньше токенов при каждом file read. Применяй: Для больших справочников (каталоги, схемы) используй YAML вместо JSON — сэкономишь на токенах без потери качества. Markdown если важна читаемость для человека
📖 Простыми словами

Structured ContextEngineeringfor File-Native Agentic Systems: Evaluating Schema Accuracy, Format Effectiveness, and Multi-File Navigation at Scale

arXiv: 2602.05447

Суть File-Native Context Engineering в том, что мы перестаем кормить нейронку гигантскими простынями текста и начинаем относиться к ней как к нормальному сотруднику. Вместо того чтобы заставлять модель зазубривать схему базы данных на десять тысяч таблиц, ей дают инструменты навигации и доступ к файловой системе. Модель больше не пытается удержать всё в голове, она просто идет и «читает» нужный файл, когда возникает конкретный вопрос. Это фундаментальный сдвиг: мы переходим от раздутых промптов к агентской логике, где ИИ сам решает, какую часть документации ему изучить прямо сейчас.

Это как разница между студентом, который пытается выучить наизусть всю библиотеку перед экзаменом, и профи, который знает, на какой полке лежит нужный справочник. Первый неизбежно поплывет на деталях, запутается в середине списка и выдаст невнятную чушь. Второй просто откроет нужную страницу и даст точный ответ. Исследование на 9649 экспериментах подтвердило: когда данных становится слишком много, попытка запихнуть их в один промпт — это гарантированный провал, потому что модель банально «теряется» в середине текста.

В работе протестировали 11 моделей и выяснили, что реально решает. Оказалось, что структура файлов важнее их содержания: форматы вроде YAML или Markdown заходят моделям гораздо лучше, чем перегруженный JSON. Когда ИИ-агент использует поиск через grep или точечное чтение файлов, точность генерации SQL-запросов растет, особенно на масштабах в 10 000 таблиц. Главный инсайт: социальное доказательство структуры (четкая иерархия и понятные названия) работает на машину так же эффективно, как на человека.

Хотя тестировали всё на SQL и базах данных, принцип универсален. Это спасение для любого сложного проекта: будь то поддержка интернет-магазина с тысячами товаров или база знаний огромной корпорации. Вместо того чтобы платить за огромные контекстные окна и ждать вечность, пока модель переварит мегабайты текста, ты просто раскладываешь инфу по папкам. SEO для документов внутри системы становится важнее, чем сам текст, потому что теперь мы оптимизируем контент под «глаза» ИИ-агента.

Короче: эпоха «запихни всё в промпт» официально закончилась, когда базы данных переросли масштаб детской песочницы. Будущее за структурированным контекстом и моделями, которые умеют пользоваться файлами. Если твоя база знаний весит больше пары страниц, перестань насиловать контекстное окно — разбивай на файлы, внедряй навигацию и дай агенту инструменты поиска. Либо ты переходишь на File-Native, либо твой ИИ будет продолжать галлюцинировать и тупить на ровном месте.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с