3,583 papers
arXiv:2603.27626 84 29 мар. 2026 г. FREE

Умвельт-инжиниринг: словарные ограничения меняют качество рассуждений LLM

КЛЮЧЕВАЯ СУТЬ
Человек думает образами и ощущениями — потом переводит в слова. LLM думает только словами: у неё нет ничего «под» языком. Убери слово — и ты убираешь целый класс мыслей. Метод No-Have позволяет перестроить рассуждения модели через запрет одного слова: вместо «клиент имеет право» она вынуждена описывать реальный механизм. Фишка: добавь одну строчку в промпт — запрет на «иметь/обладать» в посессивном значении — и модель перестаёт прятаться за шаблонные формулы. Без дообучения, без сложных инструкций — +19 процентных пунктов на этических задачах и +7 п.п. на классификации.
Адаптировать под запрос

TL;DR

Слова, которыми разрешено пользоваться модели, меняют не стиль — они меняют само мышление. Добавь в промпт запрет на глагол "иметь" в посессивном значении, и модель начнёт рассуждать об этических дилеммах, классификациях, решениях заметно точнее — потому что перестанет прятаться за привычные формулы вроде "клиент имеет право" или "решение имеет последствия" и начнёт описывать реальные отношения и механизмы.

Главная находка: LLM, как и живой организм, воспринимает мир через доступный ей язык. Человек думает образами, ощущениями, эмоциями — и потом переводит в слова. Модель думает в словах и только словами: у неё нет ничего "под" языком. Значит, убери слово — и ты убираешь целый класс мыслей. Не запрещаешь думать по-другому, а буквально делаешь определённый тип мышления недоступным. Именно поэтому "запиши только финальный ответ, без рассуждений" работает так эффективно — это не инструкция, это ограничение когнитивного пространства.

Исследователи протестировали два конкретных ограничения. No-Have — запрет на посессивное "иметь/обладать" — оказался универсально полезным: этические задачи +19 п.п., классификация +7 п.п., почти без потерь на других задачах. E-Prime — запрет на все формы глагола "быть/является" — улучшает причинно-следственный анализ +14 п.п., но разрушает откалиброванные суждения в одних моделях и взрывает точность в других. Плюс: разные языковые ограничения делают модели непохожими друг на друга — и ансамбль из 3 разных агентов покрывает задачи лучше, чем стандартный.


🔬

Схема метода

Три независимых инструмента из одного исследования. Используй отдельно или вместе:

ИНСТРУМЕНТ 1 — No-Have (посессивный запрет):
  Добавь в промпт: → "Не используй глагол [«иметь/обладать»] как основной"
  Результат → описание через отношения, действия, структуры (не через владение)
  Применять для → этика, решения, классификация, анализ

ИНСТРУМЕНТ 2 — E-Prime (запрет на «является»):
  Добавь в промпт: → "Не используй форм глагола [«быть/являться/есть»] в роли связки"
  Результат → оперативные, поведенческие формулировки вместо ярлыков
  Применять для → причинно-следственный анализ, критика без ярлыков
  ⚠️ Осторожно → не использовать для точной классификации и взвешенных суждений

ИНСТРУМЕНТ 3 — Когнитивная диверсификация:
  ШАГ 1: Задай один вопрос с ограничением А → получи ответ
  ШАГ 2: Задай тот же вопрос с ограничением Б → получи ответ
  ШАГ 3: Сравни/объедини → покрытие слепых зон каждого ответа
  Все три шага — отдельные запросы (или один чат, три сообщения)

🚀

Пример применения

Задача: Основатель SaaS-стартапа обсуждает с командой — предлагать ли бесплатный тариф. Стандартный анализ через модель даёт шаблонный ответ. Нужен более острый разбор.

Промпт (No-Have для решения):

Проанализируй бизнес-решение: стоит ли нашему B2B SaaS-стартапу 
запускать бесплатный тариф (freemium)?

Контекст: 12 месяцев на рынке, 80 платных клиентов, средний чек 15 000 ₽/мес, 
команда 8 человек, инвестиции заканчиваются через 9 месяцев.

ОГРАНИЧЕНИЕ ЯЗЫКА: не используй глагол «иметь» и «обладать» 
в посессивном значении (как "компания имеет", "продукт имеет", 
"мы имеем возможность"). Вместо этого описывай через действия, 
отношения и механизмы: не "freemium имеет недостатки" — 
а "freemium создаёт следующие риски"; не "пользователь имеет доступ" — 
а "пользователь получает доступ" или "доступ открывается для пользователя".

Дай структурированный анализ: за и против, главные риски, 
рекомендацию с обоснованием.

Результат: Модель перестанет писать "freemium модель имеет преимущества в виде..." и начнёт вскрывать механику: что именно происходит с конверсией, как изменяется нагрузка на поддержку, какие поведенческие паттерны возникают у бесплатных пользователей. Анализ становится операциональным — видны конкретные рычаги и последствия, а не абстрактные "плюсы и минусы".


🧠

Почему это работает

Слабость LLM: шаблонные концепции как "смазка" текста. Глаголы "иметь" и "являться" — это языковая шпаклёвка: ими модель заполняет пространство между мыслями, не думая. "Решение имеет последствия" — фраза ни о чём. "Решение запускает цепочку..." — уже конкретика. Модель не ленится — она генерирует следующий токен по вероятности, и шаблонные формулы просто высоковероятны.

Сильная сторона LLM: послушность языковым ограничениям. Модель отлично соблюдает формальные правила на уровне текста. No-Have добился 92.8% соблюдения ограничения — потому что запрет на конкретное слово это чёткая, однозначная инструкция. Модель не "думает глаголом «иметь»" — она генерирует токены, и если этот токен запрещён, перебирает альтернативы.

Как ограничение меняет результат. Когда привычный путь заблокирован, модель вынуждена достраивать более длинный и точный маршрут. Вместо "пациент имеет право отказаться" нужно сформулировать конкретно — и в этой формулировке появляется механизм, отношение, действие. Именно этот обход шаблона и даёт +19 п.п. на этических задачах. Не магия — перестройка маршрута генерации.

Рычаги управления:

Что менять Эффект
Добавить No-Have Улучшает этику, решения, классификацию — безопасно
Добавить E-Prime Улучшает причинно-следственный анализ — проверяй на своей модели
Комбинировать два ограничения Глубже реструктурирование, сложнее соблюдать
Запустить два варианта и сравнить Закрывают разные слепые зоны — используй для сложных решений
Заменить безликое ограничение ролью "Отвечай как операционный директор без лишних слов" — тот же принцип другими средствами

📋

Шаблон промпта

📌

Шаблон 1 — No-Have (рекомендованный, универсальный)

{Задача или вопрос}

ОГРАНИЧЕНИЕ ЯЗЫКА: не используй глагол «иметь» и «обладать» 
в посессивном значении. Вместо «X имеет Y» описывай через действия 
и отношения: что происходит, как устроено, что из чего следует.

Плейсхолдеры: - {Задача} — любой вопрос: анализ, решение, классификация, этическая дилемма, оценка риска


📌

Шаблон 2 — E-Prime (для причинно-следственного анализа)

{Задача или вопрос}

ОГРАНИЧЕНИЕ ЯЗЫКА: не используй формы глагола «быть/являться» 
как связку (не «X является Y», не «это — проблема», не «причина — это...»). 
Вместо ярлыков описывай поведение: что происходит, при каких условиях, 
какой механизм запускается.

⚠️ Не применяй E-Prime для задач на откалиброванные суждения ("насколько обосновано это утверждение") — может разрушить точность.


📌

Шаблон 3 — Когнитивная диверсификация (два агента, один чат)

Ты будешь анализировать {задачу} в двух режимах последовательно.

РЕЖИМ А (No-Have анализ):
Проанализируй задачу без посессивных формулировок. 
Описывай через отношения и действия, не через владение.

РЕЖИМ Б (Контрфактический анализ):
Теперь проанализируй ту же задачу, задавая вопрос: 
«Что произошло бы, если бы всё шло иначе? Какие скрытые допущения 
здесь принимаются как само собой разумеющееся?»

В конце: что каждый режим увидел, чего не увидел другой?

🚀 Быстрый старт — вставь в чат:

Вот шаблон языкового ограничения No-Have для промптов. 
Адаптируй под мою задачу: {твоя задача}. 
Задавай вопросы, если нужен контекст.

[вставить шаблон выше]

LLM спросит про контекст задачи и тип анализа — потому что шаблон нужно встроить в конкретный промпт, а не подать отдельно. Она возьмёт структуру ограничения и соберёт готовый промпт под твою ситуацию.


⚠️

Почему именно эти ограничения — и что ещё можно попробовать

Исследование описывает восемь традиций языковых ограничений — каждая атакует конкретную ошибку мышления:

Ограничение Что блокирует Для каких задач
No-Have (убрать "иметь") Посессивные обобщения Этика, решения, классификация
E-Prime (убрать "является") Ярлыки вместо механизмов Причинно-следственный анализ
Оперативный язык (Бриджмен) Непроверяемые утверждения Бизнес-анализ, факт-чекинг
Процессные формулировки (Реомод) Мышление объектами вместо процессов Анализ систем, изменений
Evidentiality-теги (Лаадан) Смешение факта и вывода Исследование, анализ данных
Toki Pona (130 слов) Прятаться за терминологию Объяснение простыми словами
НВК-формат (Розенберг) Оценка вместо наблюдения Code review, обратная связь
Четырёхзначная логика (Нагарджуна) Преждевременный бинарный вывод Сложные дилеммы, неопределённость

Это готовый набор инструментов для разных ситуаций. Видишь, что модель выдаёт ярлыки ("это плохое решение") — пробуй E-Prime. Смешивает факты и выводы — требуй evidentiality-теги. Прячется за сложные термины — проси объяснить языком Toki Pona.


⚠️

Ограничения

⚠️ E-Prime — непредсказуем между моделями: GPT-4o-mini потерял -27.5 п.п. на задачах откалиброванного суждения, где Gemini выиграл +42 п.п. Прежде чем использовать E-Prime в важных задачах — протестируй на своей модели.

⚠️ No-Have безопаснее, но не для всего: Силлогизмы и формальная логика ("A является подмножеством B") слегка ухудшаются. Для строгих логических задач лучше без ограничений.

⚠️ Эффект усиливается на "слабых" моделях: Gemini Flash Lite при контрольном базисе 41.7% на этике (почти случайный выбор из 4 вариантов) вырос до 84% с No-Have. Это впечатляет — но и напоминает, что там было больше куда расти.

⚠️ Не исключён эффект мета-осознанности: Когда модели говорят "не используй слово X", она начинает тщательнее следить за текстом в целом. Часть улучшений может идти от повышенного внимания, а не от конкретного ограничения. Исследователи честно это признают.


🔍

Как исследовали

Исследователь Родни Джеху-Аппиа взял три модели (Claude Haiku 4.5, GPT-4o-mini, Gemini 2.5 Flash Lite), семь типов задач и прогнал 4 680 испытаний в трёх условиях: обычный промпт, No-Have, E-Prime. Каждую задачу — при температуре 0 (детерминированно) и три раза при температуре 0.7, чтобы отделить случайность от структурного эффекта. Итого ~5.5 часов автономного тестирования.

Интересная деталь дизайна: E-Prime соблюдалось лишь в 48% случаев — модели постоянно "срывались" на формы "является". No-Have соблюдалось в 92.8%. Это само по себе инсайт: некоторые лингвистические паттерны настолько глубоко вшиты в модель, что она с трудом их избегает даже при явном запрете.

Во втором эксперименте 16 агентов с разными языковыми ограничениями решали 17 задач по отладке кода при температуре 0.0 — полностью детерминированно. Ни один агент в одиночку не превзошёл контрольного. Но ансамбль из 3 агентов с максимально разными ограничениями достиг 100% покрытия правильных ответов против 88.2% у стандарта. Ключевым оказался "контрфактический агент" — он единственный нашёл самую трудную ошибку. Перестановочный тест показал: только 8% случайных троек агентов дали такое покрытие, и в каждой из них присутствовал контрфактический агент.


📄

Оригинал из исследования

Пример системного промпта для No-Have из исследования (Experiment 1):

You are reasoning under a linguistic constraint called No-Have.

CONSTRAINT: Do not use the verb "to have" as a main (possessive/existential) verb. 
This means avoid: has, have, had, having — when used to express possession, 
ownership, or containment.

PERMITTED: Auxiliary uses remain allowed (e.g., "has completed," "had been").

REQUIRED REFORMULATION:
- Instead of "the patient has rights" → "the patient holds rights" / 
  "rights belong to the patient" / "the patient's rights include..."
- Instead of "the solution has drawbacks" → "the solution produces drawbacks" / 
  "the solution creates the following problems..."
- Instead of "I have concerns" → "concerns arise" / "I notice concerns"

This constraint applies to your entire response, including your reasoning chain.

Контекст: Это системная инструкция, которая добавлялась перед каждым заданием в Experiments 1. Модели получали её вместе с задачей, без дополнительных пояснений о цели ограничения.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: NVC-формат для обратной связи

Из таксономии восьми традиций — NVC (Ненасильственное общение) особенно практична. Разделяет наблюдение и оценку: "этот код медленный" → "этот код обрабатывает 1000 записей за 8 секунд; при нагрузке >5000 запросов/мин это создаёт очередь".

Дай обратную связь по {тексту/коду/идее/решению}.

ФОРМАТ (строго):
1. НАБЛЮДЕНИЕ: только факты — что именно происходит, без оценок
2. ЭФФЕКТ: какие последствия это создаёт и для кого
3. ПРЕДЛОЖЕНИЕ: конкретное изменение (не "сделай лучше", а "замени X на Y")

Запрещено в блоке НАБЛЮДЕНИЕ: слова "плохо", "хорошо", "неправильно", 
"слабо", "сильно" и любые оценочные прилагательные.

📌

🔧 Техника: контрфактический агент как отдельный запрос

Самый ценный агент в ансамбле — тот, кто спрашивает "а что если всё наоборот?". Используй его как второй запрос после основного анализа:

Вот анализ, который я только что получил:
{вставь предыдущий ответ модели}

Теперь сыграй роль контрфактического аналитика.
Твоя задача: найти всё, что предыдущий анализ принял за данность.
Вопросы, которые нужно задать:
— Какое скрытое допущение здесь принимается как очевидное?
— Что произошло бы, если бы ключевое условие было противоположным?
— Какой важный сценарий полностью выпал из анализа?

Не критикуй анализ — расширяй карту возможного.

📌

💡 Адаптация: Evidentiality-теги для аналитических отчётов

Проблема: модель смешивает факты, выводы и предположения в одном потоке текста. Обязательная маркировка источника знания это исправляет:

Проанализируй {тему}.

Каждое утверждение помечай тегом источника:
[ФАКТ] — прямо следует из данных в запросе
[ВЫВОД] — логически следует из фактов, но не является фактом напрямую  
[ПРЕДПОЛОЖЕНИЕ] — разумная гипотеза, требует проверки
[НЕИЗВЕСТНО] — нет данных для ответа

Пример:
[ФАКТ] Выручка в Q3 составила 4.2 млн ₽.
[ВЫВОД] Это указывает на замедление роста относительно Q2.
[ПРЕДПОЛОЖЕНИЕ] Причиной может быть сезонность.
[НЕИЗВЕСТНО] Данных о действиях конкурентов нет.

🔗

Ресурсы

Название работы: Umwelt Engineering: Designing the Cognitive Worlds of Linguistic Agents

Автор: Rodney Jehu-Appiah (аффилиация не указана в работе; опубликовано как препринт)

Ключевые источники внутри работы: - Jakob von Uexküll (1934) — original Umwelt concept - Korzybski (1933) — General Semantics - Bourland (1965) — E-Prime - ORION/Mentalese [Tanmay et al., 2025] — разработанные языки рассуждений - Sketch-of-Thought (2025) — когнитивные диалекты рассуждений - Wang et al. (2025) — BICAUSE, лингвистическая относительность в LLM


📋 Дайджест исследования

Ключевая суть

Человек думает образами и ощущениями — потом переводит в слова. LLM думает только словами: у неё нет ничего «под» языком. Убери слово — и ты убираешь целый класс мыслей. Метод No-Have позволяет перестроить рассуждения модели через запрет одного слова: вместо «клиент имеет право» она вынуждена описывать реальный механизм. Фишка: добавь одну строчку в промпт — запрет на «иметь/обладать» в посессивном значении — и модель перестаёт прятаться за шаблонные формулы. Без дообучения, без сложных инструкций — +19 процентных пунктов на этических задачах и +7 п.п. на классификации.

Принцип работы

Глагол «иметь» — языковая шпаклёвка. «Решение имеет последствия» — фраза ни о чём. Модель генерирует следующий токен по вероятности, и шаблонные формулы просто высоковероятны — они лёгкий путь. Когда привычный путь заблокирован, модель вынуждена строить более длинный и точный маршрут: не «freemium имеет недостатки» — а «freemium создаёт следующие риски для конверсии». Это не магия. Это перестройка маршрута генерации. Второй инструмент — E-Prime — убирает «является» и «есть» как связки. Получаешь поведенческие формулировки вместо ярлыков: не «это — плохое решение», а «при таких условиях решение приводит к...». Работает сильнее на причинно-следственных задачах. Но ведёт себя по-разному на разных моделях — сначала проверяй.

Почему работает

LLM не имеет ничего «под» языком. Нет образов, ощущений, интуиции — только токены. Словарные ограничения — это не стилевые правила, а буквальное изменение когнитивного пространства модели. No-Have добивается 92.8% соблюдения запрета — потому что «не используй слово X» — чёткая однозначная инструкция. Gemini Flash Lite при базовом уровне 41.7% на этических задачах (почти случайный выбор из четырёх вариантов) вырос до 84% с No-Have. Впечатляет — хотя часть прироста может идти от общей внимательности модели к тексту, а не от самого запрета. Исследователи это честно признают.

Когда применять

Этические дилеммы, анализ решений, классификация — No-Have работает безопасно и даёт прирост почти везде. Причинно-следственный анализ и критика без ярлыков — пробуй E-Prime, но сначала проверь на своей модели: GPT-4o-mini потерял -27.5 п.п. на откалиброванных суждениях там, где Gemini выиграл +42 п.п. Для сложных задач, где важно не пропустить слепые зоны — запускай один и тот же запрос с двумя разными ограничениями и сравнивай ответы. НЕ подходит: E-Prime — для формальной логики и тех задач, где нужна точная откалиброванная оценка.

Мини-рецепт

1. Определи тип задачи: этика, решение, классификация — No-Have. Причинно-следственный анализ — E-Prime (с проверкой на своей модели).
2. Добавь в конец промпта одну строчку для No-Have: «Не используй глагол «иметь» и «обладать» в посессивном значении. Вместо «X имеет Y» описывай через действия и отношения: что происходит, как устроено, что из чего следует».
3. Для E-Prime добавь: «Не используй формы глагола «быть/являться» как связку. Вместо «X является Y» описывай поведение: что происходит, при каких условиях, какой механизм запускается».
4. Для сложных решений — два прогона: первый запрос с No-Have, второй с E-Prime. В конце сравни: что каждый режим увидел, чего не увидел другой.

Примеры

[ПЛОХО] : Проанализируй, стоит ли нашему стартапу запускать бесплатный тариф
[ХОРОШО] : Проанализируй, стоит ли нашему B2B-стартапу запускать бесплатный тариф. Контекст: 80 платных клиентов, средний чек 15 000 руб/мес, инвестиции заканчиваются через 9 месяцев. ОГРАНИЧЕНИЕ ЯЗЫКА: не используй глагол «иметь» и «обладать» в посессивном значении. Вместо «freemium имеет преимущества» описывай через механизмы: что происходит с конверсией, как меняется нагрузка на поддержку, какие риски возникают. Дай структурированный анализ с рекомендацией.
Источник: UmweltEngineering: Designing the Cognitive Worlds of Linguistic Agents
ArXiv ID: 2603.27626 | Сгенерировано: 2026-03-31 04:29

Проблемы LLM

ПроблемаСутьКак обойти
Шаблонные глаголы заменяют рассуждениеМодель генерирует следующий токен по вероятности. Фраза "решение имеет последствия" или "X является проблемой" очень вероятна — и модель её выдаёт. Это не мышление, а заполнение шаблона. За такими фразами не видно механики: что именно происходит, как устроено, что из чего следует. Особенно заметно в этике, анализе решений, причинно-следственных цепочкахЗапрети конкретный шаблонный глагол в промпте. Когда привычный токен недоступен, модель строит более длинный маршрут — и в нём появляются реальные отношения и механизмы

Методы

МетодСуть
No-Have запрет — убираешь шаблоны, получаешь механикуДобавь в промпт: "Не используй глагол «иметь/обладать» в посессивном значении. Вместо «X имеет Y» описывай через действия и отношения: что происходит, как устроено, что из чего следует." Почему работает: Фраза "компания имеет ресурсы" ни о чём не говорит. Запрет заставляет описать конкретно: что за ресурсы, как они задействуются, что меняется. Модель перестаёт прятаться за посессивную конструкцию. Когда применять: анализ решений, этические дилеммы, классификация, оценка рисков. Когда не применять: формальная логика с отношениями подмножеств — там небольшая просадка
E-Prime запрет — убираешь ярлыки, получаешь поведениеДобавь в промпт: "Не используй формы глагола «быть/являться» как связку. Не «X является Y», не «это — проблема». Вместо этого описывай поведение: что происходит, при каких условиях, какой механизм запускается." Почему работает: "Это плохое решение" — ярлык, мысль остановилась. "При таком решении падает конверсия и растёт нагрузка на поддержку" — описание механизма, мысль продолжается. Когда применять: причинно-следственный анализ, критика без оценочных суждений. ⚠️ Проверяй модель: на задачах с взвешенными суждениями эффект непредсказуем. Протестируй перед использованием

Тезисы

ТезисКомментарий
Блокировка частотного токена удлиняет маршрут генерации — и повышает точностьМодель идёт по пути наибольшей вероятности. Шаблонный глагол — короткий и привычный путь. Когда он закрыт, модель вынуждена строить более длинный маршрут. На этом маршруте появляются конкретика, механизм, отношения. Это не магия — перестройка маршрута. Применяй: один запрет на конкретный глагол в промпте даёт более точный и операциональный ответ. Проще не бывает
📖 Простыми словами

UmweltEngineering: Designing the Cognitive Worlds of LinguisticAgents

arXiv: 2603.27626

Суть в том, что слова — это не просто упаковка для мыслей AI, а рельсы, по которым эти мысли едут. Исследование UmweltEngineering доказывает: если ты запрещаешь модели использовать привычные «мусорные» глаголы, она не просто меняет стиль, она начинает умнеть на глазах. Когда мы убираем из промпта возможность использовать глагол иметь в значении обладания, модель лишается привычного костыля. Ей приходится выстраивать сложные логические связи и описывать реальные механизмы вместо того, чтобы отделываться общими фразами.

Это как если бы ты пришел к врачу, а ему запретили говорить слово болит. Вместо ленивого «у вас тут болит», ему пришлось бы мучительно подбирать слова: «ткани воспалены», «нервные окончания посылают сигнал», «давление в суставе зашкаливает». Формально задача усложнилась, но по факту диагностика стала в десять раз точнее, потому что врач перестал прятаться за размытыми терминами и наконец-то посмотрел в корень проблемы.

В работе выделяют три конкретных метода: E-Prime (запрет глагола «быть» как связки), запрет посессивного «иметь» и ограничение модальных глаголов вроде «должен» или «мог бы». Цифры показывают, что такие лингвистические тиски заставляют модель выдавать более глубокую классификацию и этический анализ. Вместо пустого «решение имеет последствия», AI выдает конкретную цепочку событий, потому что запретный глагол больше не работает как универсальная затычка для любой дырки в логике.

Хотя тестировали это на сложных этических дилеммах, принцип универсален для любого бизнеса или разработки. Если тебе нужно, чтобы ChatGPT выдал не стандартную жвачку, а реально острый разбор стратегии или аудит кода, просто введи лингвистические ограничения. Это работает везде: от написания сценариев до анализа рисков. Ты буквально заставляешь алгоритм тратить больше вычислительных ресурсов на поиск нестандартных связей, выбивая его из колеи предсказуемых токенов.

Короче: хватит просить модель «думать лучше», просто отбери у неё языковую шпаклёвку. Запрет на слова-паразиты вроде «является» или «имеет» превращает AI из ленивого копирайтера в дотошного аналитика. Ограничение словаря — это апгрейд интеллекта, и это самый дешевый способ заставить LLM прыгнуть выше головы. Кто продолжит кормить модель рыхлыми промптами, будет получать рыхлые ответы, пока конкуренты выжимают из нейронки максимум через жесткий синтаксис.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с