TL;DR
Слова, которыми разрешено пользоваться модели, меняют не стиль — они меняют само мышление. Добавь в промпт запрет на глагол "иметь" в посессивном значении, и модель начнёт рассуждать об этических дилеммах, классификациях, решениях заметно точнее — потому что перестанет прятаться за привычные формулы вроде "клиент имеет право" или "решение имеет последствия" и начнёт описывать реальные отношения и механизмы.
Главная находка: LLM, как и живой организм, воспринимает мир через доступный ей язык. Человек думает образами, ощущениями, эмоциями — и потом переводит в слова. Модель думает в словах и только словами: у неё нет ничего "под" языком. Значит, убери слово — и ты убираешь целый класс мыслей. Не запрещаешь думать по-другому, а буквально делаешь определённый тип мышления недоступным. Именно поэтому "запиши только финальный ответ, без рассуждений" работает так эффективно — это не инструкция, это ограничение когнитивного пространства.
Исследователи протестировали два конкретных ограничения. No-Have — запрет на посессивное "иметь/обладать" — оказался универсально полезным: этические задачи +19 п.п., классификация +7 п.п., почти без потерь на других задачах. E-Prime — запрет на все формы глагола "быть/является" — улучшает причинно-следственный анализ +14 п.п., но разрушает откалиброванные суждения в одних моделях и взрывает точность в других. Плюс: разные языковые ограничения делают модели непохожими друг на друга — и ансамбль из 3 разных агентов покрывает задачи лучше, чем стандартный.
Схема метода
Три независимых инструмента из одного исследования. Используй отдельно или вместе:
ИНСТРУМЕНТ 1 — No-Have (посессивный запрет):
Добавь в промпт: → "Не используй глагол [«иметь/обладать»] как основной"
Результат → описание через отношения, действия, структуры (не через владение)
Применять для → этика, решения, классификация, анализ
ИНСТРУМЕНТ 2 — E-Prime (запрет на «является»):
Добавь в промпт: → "Не используй форм глагола [«быть/являться/есть»] в роли связки"
Результат → оперативные, поведенческие формулировки вместо ярлыков
Применять для → причинно-следственный анализ, критика без ярлыков
⚠️ Осторожно → не использовать для точной классификации и взвешенных суждений
ИНСТРУМЕНТ 3 — Когнитивная диверсификация:
ШАГ 1: Задай один вопрос с ограничением А → получи ответ
ШАГ 2: Задай тот же вопрос с ограничением Б → получи ответ
ШАГ 3: Сравни/объедини → покрытие слепых зон каждого ответа
Все три шага — отдельные запросы (или один чат, три сообщения)
Пример применения
Задача: Основатель SaaS-стартапа обсуждает с командой — предлагать ли бесплатный тариф. Стандартный анализ через модель даёт шаблонный ответ. Нужен более острый разбор.
Промпт (No-Have для решения):
Проанализируй бизнес-решение: стоит ли нашему B2B SaaS-стартапу
запускать бесплатный тариф (freemium)?
Контекст: 12 месяцев на рынке, 80 платных клиентов, средний чек 15 000 ₽/мес,
команда 8 человек, инвестиции заканчиваются через 9 месяцев.
ОГРАНИЧЕНИЕ ЯЗЫКА: не используй глагол «иметь» и «обладать»
в посессивном значении (как "компания имеет", "продукт имеет",
"мы имеем возможность"). Вместо этого описывай через действия,
отношения и механизмы: не "freemium имеет недостатки" —
а "freemium создаёт следующие риски"; не "пользователь имеет доступ" —
а "пользователь получает доступ" или "доступ открывается для пользователя".
Дай структурированный анализ: за и против, главные риски,
рекомендацию с обоснованием.
Результат: Модель перестанет писать "freemium модель имеет преимущества в виде..." и начнёт вскрывать механику: что именно происходит с конверсией, как изменяется нагрузка на поддержку, какие поведенческие паттерны возникают у бесплатных пользователей. Анализ становится операциональным — видны конкретные рычаги и последствия, а не абстрактные "плюсы и минусы".
Почему это работает
Слабость LLM: шаблонные концепции как "смазка" текста. Глаголы "иметь" и "являться" — это языковая шпаклёвка: ими модель заполняет пространство между мыслями, не думая. "Решение имеет последствия" — фраза ни о чём. "Решение запускает цепочку..." — уже конкретика. Модель не ленится — она генерирует следующий токен по вероятности, и шаблонные формулы просто высоковероятны.
Сильная сторона LLM: послушность языковым ограничениям. Модель отлично соблюдает формальные правила на уровне текста. No-Have добился 92.8% соблюдения ограничения — потому что запрет на конкретное слово это чёткая, однозначная инструкция. Модель не "думает глаголом «иметь»" — она генерирует токены, и если этот токен запрещён, перебирает альтернативы.
Как ограничение меняет результат. Когда привычный путь заблокирован, модель вынуждена достраивать более длинный и точный маршрут. Вместо "пациент имеет право отказаться" нужно сформулировать конкретно — и в этой формулировке появляется механизм, отношение, действие. Именно этот обход шаблона и даёт +19 п.п. на этических задачах. Не магия — перестройка маршрута генерации.
Рычаги управления:
| Что менять | Эффект |
|---|---|
| Добавить No-Have | Улучшает этику, решения, классификацию — безопасно |
| Добавить E-Prime | Улучшает причинно-следственный анализ — проверяй на своей модели |
| Комбинировать два ограничения | Глубже реструктурирование, сложнее соблюдать |
| Запустить два варианта и сравнить | Закрывают разные слепые зоны — используй для сложных решений |
| Заменить безликое ограничение ролью | "Отвечай как операционный директор без лишних слов" — тот же принцип другими средствами |
Шаблон промпта
Шаблон 1 — No-Have (рекомендованный, универсальный)
{Задача или вопрос}
ОГРАНИЧЕНИЕ ЯЗЫКА: не используй глагол «иметь» и «обладать»
в посессивном значении. Вместо «X имеет Y» описывай через действия
и отношения: что происходит, как устроено, что из чего следует.
Плейсхолдеры:
- {Задача} — любой вопрос: анализ, решение, классификация, этическая дилемма, оценка риска
Шаблон 2 — E-Prime (для причинно-следственного анализа)
{Задача или вопрос}
ОГРАНИЧЕНИЕ ЯЗЫКА: не используй формы глагола «быть/являться»
как связку (не «X является Y», не «это — проблема», не «причина — это...»).
Вместо ярлыков описывай поведение: что происходит, при каких условиях,
какой механизм запускается.
⚠️ Не применяй E-Prime для задач на откалиброванные суждения ("насколько обосновано это утверждение") — может разрушить точность.
Шаблон 3 — Когнитивная диверсификация (два агента, один чат)
Ты будешь анализировать {задачу} в двух режимах последовательно.
РЕЖИМ А (No-Have анализ):
Проанализируй задачу без посессивных формулировок.
Описывай через отношения и действия, не через владение.
РЕЖИМ Б (Контрфактический анализ):
Теперь проанализируй ту же задачу, задавая вопрос:
«Что произошло бы, если бы всё шло иначе? Какие скрытые допущения
здесь принимаются как само собой разумеющееся?»
В конце: что каждый режим увидел, чего не увидел другой?
🚀 Быстрый старт — вставь в чат:
Вот шаблон языкового ограничения No-Have для промптов.
Адаптируй под мою задачу: {твоя задача}.
Задавай вопросы, если нужен контекст.
[вставить шаблон выше]
LLM спросит про контекст задачи и тип анализа — потому что шаблон нужно встроить в конкретный промпт, а не подать отдельно. Она возьмёт структуру ограничения и соберёт готовый промпт под твою ситуацию.
Почему именно эти ограничения — и что ещё можно попробовать
Исследование описывает восемь традиций языковых ограничений — каждая атакует конкретную ошибку мышления:
| Ограничение | Что блокирует | Для каких задач |
|---|---|---|
| No-Have (убрать "иметь") | Посессивные обобщения | Этика, решения, классификация |
| E-Prime (убрать "является") | Ярлыки вместо механизмов | Причинно-следственный анализ |
| Оперативный язык (Бриджмен) | Непроверяемые утверждения | Бизнес-анализ, факт-чекинг |
| Процессные формулировки (Реомод) | Мышление объектами вместо процессов | Анализ систем, изменений |
| Evidentiality-теги (Лаадан) | Смешение факта и вывода | Исследование, анализ данных |
| Toki Pona (130 слов) | Прятаться за терминологию | Объяснение простыми словами |
| НВК-формат (Розенберг) | Оценка вместо наблюдения | Code review, обратная связь |
| Четырёхзначная логика (Нагарджуна) | Преждевременный бинарный вывод | Сложные дилеммы, неопределённость |
Это готовый набор инструментов для разных ситуаций. Видишь, что модель выдаёт ярлыки ("это плохое решение") — пробуй E-Prime. Смешивает факты и выводы — требуй evidentiality-теги. Прячется за сложные термины — проси объяснить языком Toki Pona.
Ограничения
⚠️ E-Prime — непредсказуем между моделями: GPT-4o-mini потерял -27.5 п.п. на задачах откалиброванного суждения, где Gemini выиграл +42 п.п. Прежде чем использовать E-Prime в важных задачах — протестируй на своей модели.
⚠️ No-Have безопаснее, но не для всего: Силлогизмы и формальная логика ("A является подмножеством B") слегка ухудшаются. Для строгих логических задач лучше без ограничений.
⚠️ Эффект усиливается на "слабых" моделях: Gemini Flash Lite при контрольном базисе 41.7% на этике (почти случайный выбор из 4 вариантов) вырос до 84% с No-Have. Это впечатляет — но и напоминает, что там было больше куда расти.
⚠️ Не исключён эффект мета-осознанности: Когда модели говорят "не используй слово X", она начинает тщательнее следить за текстом в целом. Часть улучшений может идти от повышенного внимания, а не от конкретного ограничения. Исследователи честно это признают.
Как исследовали
Исследователь Родни Джеху-Аппиа взял три модели (Claude Haiku 4.5, GPT-4o-mini, Gemini 2.5 Flash Lite), семь типов задач и прогнал 4 680 испытаний в трёх условиях: обычный промпт, No-Have, E-Prime. Каждую задачу — при температуре 0 (детерминированно) и три раза при температуре 0.7, чтобы отделить случайность от структурного эффекта. Итого ~5.5 часов автономного тестирования.
Интересная деталь дизайна: E-Prime соблюдалось лишь в 48% случаев — модели постоянно "срывались" на формы "является". No-Have соблюдалось в 92.8%. Это само по себе инсайт: некоторые лингвистические паттерны настолько глубоко вшиты в модель, что она с трудом их избегает даже при явном запрете.
Во втором эксперименте 16 агентов с разными языковыми ограничениями решали 17 задач по отладке кода при температуре 0.0 — полностью детерминированно. Ни один агент в одиночку не превзошёл контрольного. Но ансамбль из 3 агентов с максимально разными ограничениями достиг 100% покрытия правильных ответов против 88.2% у стандарта. Ключевым оказался "контрфактический агент" — он единственный нашёл самую трудную ошибку. Перестановочный тест показал: только 8% случайных троек агентов дали такое покрытие, и в каждой из них присутствовал контрфактический агент.
Оригинал из исследования
Пример системного промпта для No-Have из исследования (Experiment 1):
You are reasoning under a linguistic constraint called No-Have.
CONSTRAINT: Do not use the verb "to have" as a main (possessive/existential) verb.
This means avoid: has, have, had, having — when used to express possession,
ownership, or containment.
PERMITTED: Auxiliary uses remain allowed (e.g., "has completed," "had been").
REQUIRED REFORMULATION:
- Instead of "the patient has rights" → "the patient holds rights" /
"rights belong to the patient" / "the patient's rights include..."
- Instead of "the solution has drawbacks" → "the solution produces drawbacks" /
"the solution creates the following problems..."
- Instead of "I have concerns" → "concerns arise" / "I notice concerns"
This constraint applies to your entire response, including your reasoning chain.
Контекст: Это системная инструкция, которая добавлялась перед каждым заданием в Experiments 1. Модели получали её вместе с задачей, без дополнительных пояснений о цели ограничения.
Адаптации и экстраполяции
💡 Адаптация: NVC-формат для обратной связи
Из таксономии восьми традиций — NVC (Ненасильственное общение) особенно практична. Разделяет наблюдение и оценку: "этот код медленный" → "этот код обрабатывает 1000 записей за 8 секунд; при нагрузке >5000 запросов/мин это создаёт очередь".
Дай обратную связь по {тексту/коду/идее/решению}.
ФОРМАТ (строго):
1. НАБЛЮДЕНИЕ: только факты — что именно происходит, без оценок
2. ЭФФЕКТ: какие последствия это создаёт и для кого
3. ПРЕДЛОЖЕНИЕ: конкретное изменение (не "сделай лучше", а "замени X на Y")
Запрещено в блоке НАБЛЮДЕНИЕ: слова "плохо", "хорошо", "неправильно",
"слабо", "сильно" и любые оценочные прилагательные.
🔧 Техника: контрфактический агент как отдельный запрос
Самый ценный агент в ансамбле — тот, кто спрашивает "а что если всё наоборот?". Используй его как второй запрос после основного анализа:
Вот анализ, который я только что получил:
{вставь предыдущий ответ модели}
Теперь сыграй роль контрфактического аналитика.
Твоя задача: найти всё, что предыдущий анализ принял за данность.
Вопросы, которые нужно задать:
— Какое скрытое допущение здесь принимается как очевидное?
— Что произошло бы, если бы ключевое условие было противоположным?
— Какой важный сценарий полностью выпал из анализа?
Не критикуй анализ — расширяй карту возможного.
💡 Адаптация: Evidentiality-теги для аналитических отчётов
Проблема: модель смешивает факты, выводы и предположения в одном потоке текста. Обязательная маркировка источника знания это исправляет:
Проанализируй {тему}.
Каждое утверждение помечай тегом источника:
[ФАКТ] — прямо следует из данных в запросе
[ВЫВОД] — логически следует из фактов, но не является фактом напрямую
[ПРЕДПОЛОЖЕНИЕ] — разумная гипотеза, требует проверки
[НЕИЗВЕСТНО] — нет данных для ответа
Пример:
[ФАКТ] Выручка в Q3 составила 4.2 млн ₽.
[ВЫВОД] Это указывает на замедление роста относительно Q2.
[ПРЕДПОЛОЖЕНИЕ] Причиной может быть сезонность.
[НЕИЗВЕСТНО] Данных о действиях конкурентов нет.
Ресурсы
Название работы: Umwelt Engineering: Designing the Cognitive Worlds of Linguistic Agents
Автор: Rodney Jehu-Appiah (аффилиация не указана в работе; опубликовано как препринт)
Ключевые источники внутри работы: - Jakob von Uexküll (1934) — original Umwelt concept - Korzybski (1933) — General Semantics - Bourland (1965) — E-Prime - ORION/Mentalese [Tanmay et al., 2025] — разработанные языки рассуждений - Sketch-of-Thought (2025) — когнитивные диалекты рассуждений - Wang et al. (2025) — BICAUSE, лингвистическая относительность в LLM
