3,583 papers
arXiv:2602.08208 72 9 фев. 2026 г. FREE

Конвенции в диалоге: почему LLM не договаривается с людьми (но договаривается с собой)

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM отлично договаривается со своей копией – точность с 56% до 99% за 50 раундов. Но человек + LLM застревают на 70%. Исследование показывает почему AI плохо усваивает ваши соглашения в диалоге и как это обойти. Причина – разная категоризация мира. Люди видят гештальт ('танцор'), AI видит набор признаков ('большой треугольник слева, два маленьких справа образуют ногу'). Когда говоришь 'давай называть это танцором', модель повторяет слово, но не переключается на категориальный режим – продолжает описывать геометрию. AI-AI пары успешны потому что видят одинаково – общий энкодер изображений, общие веса, одинаковая интерпретация каждой фигуры.
Адаптировать под запрос

TL;DR

Люди в многоразовом диалоге естественно формируют конвенции (общие соглашения) — сокращают фразы, договариваются об обозначениях, растут в точности. Исследователи проверили, умеют ли LLM то же самое в игре-коммуникации: один описывает абстрактную фигуру, второй выбирает из 10 вариантов, 50 раундов подряд. Тестировали три типа пар: Человек-Человек (H-H), Человек-AI (H-AI) и AI-AI.

Человек-Человек: описания сокращаются с 20 до 6 слов, точность растёт с 81% до 93%, появляются устойчивые названия ("танцор", "человек на скейте"). AI-AI: точность взлетает с 56% до 99%, высокая стабильность названий, но длина почти не меняется (58→56 слов) — модели договариваются друг с другом, но не сокращают. Человек-AI: провал — точность едва растёт (54%→70%), описания длинные (~30 слов), низкая повторяемость. Причина: люди описывают аналогиями ("как танцор"), AI описывает геометрией ("большой треугольник слева, два маленьких треугольника справа образуют ногу"). Разные способы видеть мир.

В эксперименте 2 добавили промпт "веди себя как человек: используй аналогии, будь краток". Длина H-AI пар сравнялась с H-H, но точность и стабильность всё равно отстали. Вывод: формирование конвенций требует не просто способности повторять фразы партнёра, а общей интерпретационной базы — совместимых способов категоризировать объекты. H-H и AI-AI успешны потому что "смотрят на мир одинаково". H-AI проваливается даже при одинаковой длине сообщений, потому что видят по-разному.

📌

Главный инсайт

LLM не чувствительна к длине сообщений и не формирует бытовые соглашения с людьми естественно, даже если точность растёт.

Люди в диалоге автоматически сокращают: первое описание — "фигура похожа на человека который прыгает, верхний треугольник как голова, длинная рука вправо", к 5-му разу — "прыгун". AI в диалоге с другой AI тоже создаёт стабильные названия, но не сокращает длину: продолжает писать 50-словные геометрические описания даже когда договорилась.

Причина в двух различиях:

  1. Отсутствие естественного давления на краткость. Люди устают говорить и печатать — эволюционно экономят энергию. LLM генерирует 5 или 50 слов с одинаковым "усилием" (вычислительные затраты есть, но модель их не чувствует).

  2. Разная интерпретационная база. Люди видят абстрактные фигуры как знакомые объекты ("танцор", "человек на скейте") — категориальное восприятие. LLM видит набор форм и пространственные отношения — геометрическое описание. Когда человек предлагает "давай называть это танцором", AI может повторить слово, но не усваивает категорию — продолжает добавлять геометрические детали. В итоге соглашение не закрепляется.

📌

Применимые принципы

📌

1. Явно инструктируй стиль описания

LLM не угадает "как ты хочешь чтобы она говорила" из контекста диалога. Люди улавливают стиль партнёра и подстраиваются автоматически. AI — нет.

Что делать: В начале диалога (или system prompt) задай стиль явно.

Примеры инструкций: - "Описывай через аналогии и ассоциации, а не через геометрию" - "Используй образные сравнения (как X, похоже на Y), не технические детали" - "Отвечай в стиле разговорной речи, как будто объясняешь другу"

📌

2. Явно требуй краткости (и напоминай)

LLM не сократит сама, даже если вы 10 раз обменялись репликами. Нужно явное давление.

Что делать: - Добавь в промпт: "С каждым следующим сообщением сокращай ответ. К 5-му ответу — максимум 1-2 предложения." - Или жёсткий лимит: "Каждый ответ — максимум 10 слов." - Напоминай в процессе: "Мы уже обсудили это. Теперь кратко — что изменилось?"

📋

3. Мультиагентность внутри промпта работает лучше чем человек-AI диалог

AI-AI пары в исследовании формировали более стабильные соглашения чем H-AI пары (lexical overlap в 2 раза выше). Это значит: два экземпляра модели внутри одного промпта синхронизируются лучше, чем модель с тобой через реплики.

Что делать: Для задач где нужна "договорённость о терминах":

Агент A и Агент B обсуждают {задачу}.

Сначала Агент A предлагает термины и обозначения.
Агент B критикует или соглашается.
Они приходят к общему словарю.

Затем используют этот словарь для решения.

Агенты "внутри" одного вызова имеют общую базу (одна модель, один контекст) → легче договариваются.

📌

4. Задавай формат категоризации

LLM не угадает "как ты членишь мир" — нужно показать примеры.

Что делать: Вместо: "Опиши этот процесс" Лучше: "Опиши этот процесс через метафору. Например, предыдущий процесс мы назвали 'конвейер'. Придумай похожую аналогию."

Или few-shot:

Фигура 1: "Танцор" (был длинный текст, мы сократили до метафоры)
Фигура 2: "Самолёт" (было описание крыльев, мы упростили)

Теперь фигура 3: [опиши по тому же принципу]
🚀

Пример применения

Задача: Ты с командой разрабатываешь внутреннюю терминологию для нового продукта. Есть 5 сложных концепций, команда называет их по-разному — путаница. Нужно договориться об общих названиях и определениях.

Промпт:

Я опишу 5 концепций нашего продукта. Для каждой нужно:
1. Короткое название (1-2 слова, метафора или аналогия)
2. Определение в одно предложение
3. Пример использования в одно предложение

Стиль: разговорный, через образы. Не технический жаргон.

После каждой концепции я скажу "ок" или предложу правки. 
Ты адаптируешь название под мои правки.
К концу — утверждённый словарь.

Первая концепция: [описание концепции #1]

Результат:

Модель предложит название-метафору. Ты скажешь "слишком абстрактно" или "ок". Она скорректирует. К 5-й концепции будет словарь с утверждёнными терминами. Но: ожидай что модель не уловит твой стиль автоматически — придётся направлять явно ("больше конкретики", "короче", "проще"). Без явного давления она не сократит определения даже после 3-4 итераций.

🧠

Почему это работает (и не работает)

Слабость LLM:

  1. Нет естественного давления на экономию длины. Transformer генерирует токены последовательно — 5 токенов или 50 требуют одинакового "усилия" для модели. Люди платят метаболической энергией за каждое слово (печатать, говорить, держать в рабочей памяти) — естественно минимизируют. LLM этого давления не чувствует.

  2. Разная категоризация мира. Люди смотрят на абстрактную фигуру и видят гештальт — целостный образ ("танцор"). LLM обрабатывает визуальную информацию через энкодер изображений, выдающий набор признаков и отношений ("треугольник A в позиции X, треугольник B соединён с A"). Это более детализированное, но менее категориальное видение. Когда ты говоришь "давай назовём это танцором", модель может повторить слово, но не переключится на категориальный режим — продолжит добавлять геометрические уточнения из своего "видения".

Сильная сторона LLM:

LLM отлично формирует конвенции с другими экземплярами себя. AI-AI пары в исследовании достигли 99% точности и в 2 раза более высокой стабильности терминологии чем H-H пары. Причина: общая архитектура + одинаковые веса + один контекст = идентичная интерпретация. Оба "агента" видят фигуру одинаково (через один vision encoder), описывают одинаково (один language model), запоминают одинаково (attention mechanism).

Как метод использует это:

В мультиагентных промптах ты создаёшь двух (или больше) "участников" внутри одного вызова. Это не разные модели — это симуляция ролей одной моделью. Но благодаря общей базе, "договорённости" между агентами стабильнее чем между тобой и моделью.

Рычаги управления:

  1. Стиль категоризации — "через аналогии" vs "через детали". Меняет КАК модель описывает объекты.

  2. Лимит длины — "максимум X слов" или "с каждым разом короче". Создаёт искусственное давление на экономию.

  3. Few-shot примеры — покажи 1-2 примера "как надо". До-после ("было длинно → стало коротко и образно"). Модель уловит паттерн лучше чем из абстрактной инструкции.

  4. Явное напоминание — в середине диалога вставь "Мы уже договорились называть это X. Используй X, не описывай заново." LLM не запомнит соглашение автоматически — нужно закреплять.

⚠️

Ограничения

⚠️ Не работает для бытовой переписки: LLM не уловит твой стиль общения и не сократится сама, даже если вы 50 сообщений обменялись. Нужна явная инструкция в начале или напоминания в процессе.

⚠️ Явные инструкции не гарантируют результат: В эксперименте 2 промпт "веди себя как человек" сократил длину до человеческой, но точность и стабильность терминов всё равно отстали от H-H пар. Модель может имитировать форму (короткие сообщения), но не усваивать содержание соглашений так же как люди.

⚠️ Разная категоризация — фундаментальное ограничение: Если задача требует "общего видения" объектов (дизайн, креатив, абстрактные концепции), ты и модель будете карвить пространство по-разному. Модель может повторить твои термины, но добавит "уточнения" которые для тебя избыточны. Это не баг — это разница в том как вы воспринимаете информацию.

🔍

Как исследовали

Команда из UC San Diego и Университета Техаса набрала 168 человек через университетский пул испытуемых. Половину соединили с другими людьми, половину — с GPT-4o через API (участники не знали с кем играют). Ещё запустили игры AI-AI — модель с копией самой себя.

Игра: tangrams reference game. На экране 10 абстрактных фигур из геометрических форм. Один игрок (director) описывает выделенную фигуру, второй (matcher) выбирает из сетки. Роли меняются каждый ход. 50 раундов подряд (5 блоков по 10 фигур) с одним партнёром — это марафон, не одноразовый запрос.

Измеряли три метрики: 1. Accuracy — правильно ли выбрана фигура 2. Length — количество слов в описании

3. Lexical overlap — насколько описание одной фигуры в блоке N похоже на описание той же фигуры в блоке N-1 (Jaccard similarity)

Классическая находка про людей (известная с 90-х): H-H пары сокращаются с 20 до 6 слов, точность растёт, overlap увеличивается — это конвенции. Первый раз называют "фигура похожа на человека который танцует, верхний ромб как голова", к 5-му блоку — просто "танцор".

Сюрприз исследования:

AI-AI пары показали противоположный паттерн креативности: точность взлетела с 56% до 99% (быстрее людей), lexical overlap в 2 раза выше чем у H-H — стабильные соглашения сформировались. Но длина не изменилась (58→56 слов). Модели договорились о терминах, но продолжали добавлять избыточные детали.

H-AI пары полностью провалились: точность 54%→70%, длина ~30 слов, overlap вдвое ниже чем у H-H. Даже хуже чем в первом блоке AI-AI пар.

Почему провал H-AI? Исследователи прогнали описания через GPT-4o-mini с просьбой классифицировать стиль: analogical (метафоры — "танцор", "самолёт"), geometric (описание форм — "два треугольника образуют..."), mixed.

Результаты: - H-H: 68% analogical, 12% geometric - AI-AI: 5% analogical, 38% geometric, 57% mixed - H-AI: 24% analogical, 23% geometric, 52% mixed

Люди договариваются метафорами, AI мыслит геометрией. В H-AI парах люди пытаются предложить метафору, AI либо игнорирует либо "дополняет" геометрическими деталями — соглашение не закрепляется.

Эксперимент 2: Создали промпт "humanlike" — явные инструкции использовать аналогии, сокращать длину, уменьшать описания с каждым блоком. Итеративно тестировали на AI-AI парах пока не получили человекоподобную траекторию длины.

Результат с новым промптом в H-AI парах: длина сравнялась с H-H (даже чуть короче), но accuracy и lexical overlap всё равно отстали. 59% участников думали что такой AI — человек (vs 84% для настоящих людей, 12% для дефолтного AI).

Вывод исследования: Можно заставить AI имитировать форму человеческой коммуникации (длина, стиль), но содержание (стабильные соглашения, высокая точность) требует не просто повторения фраз партнёра, а общей интерпретационной базы — совместимых способов видеть и категоризировать мир.

📌

Адаптации

📌

🔧 Техника: Закрепление соглашений через явный словарь

Проблема оригинальной игры: соглашения формировались неявно, AI не фиксировала их. Адаптация: создавай явный словарь терминов по ходу диалога.

Мы обсуждаем {набор концепций/объектов}.

После каждого обсуждаемого элемента:
1. Я предлагаю короткое название
2. Ты уточняешь/соглашаешься
3. Добавляем в "Словарь соглашений" в начале треда

Когда ссылаемся на элемент далее — используем ТОЛЬКО название из словаря, без повторного описания.

[Словарь соглашений]
Элемент 1: [название] — [определение одним предложением]

Начнём с элемента 1: [описание]

Эффект: Ты создаёшь артефакт-якорь в контексте, к которому модель может обращаться. Это компенсирует слабость LLM в формировании неявных соглашений.


📌

🔧 Техника: Искусственное давление на краткость через "стоимость слов"

Исследование показало что LLM не чувствует естественного давления экономить длину. Создай искусственное.

Задача: {описание}

Правила:
- У тебя есть "бюджет" 200 слов на весь диалог
- Каждый твой ответ уменьшает бюджет на количество слов в ответе
- Когда бюджет кончится — ты проиграл
- В конце каждого ответа пиши: "Осталось слов: X"

Цель: решить задачу уложившись в бюджет.

Эффект: Модель начнёт явно оптимизировать длину. В исследовании AI-AI пары не сокращались потому что не было стимула. Бюджет создаёт стимул.


🔗

Ресурсы

LLMs and people both learn to form conventions – just not with each other — Cameron R. Jones, Agnese Lombardi, Kyle Mahowald, Benjamin K. Bergen.

Университеты: Stony Brook University, University of Pisa, University of Texas at Austin, University of California San Diego.

Связанные работы упомянутые в исследовании: - Wilkes-Gibbs & Clark (1992) — классическая работа про tangrams game и формирование конвенций у людей - Hawkins et al. (2017) — современное исследование механизмов конвенций в reference games - Vaduguru et al. (2025) — Vision-Language модели учатся формировать конвенции при оптимизации на стоимость сообщений - Zeng et al. (2026) — похожее исследование с изображениями корзин, нашли провал H-AI и AI-AI пар


📋 Дайджест исследования

Ключевая суть

Обнаружено: LLM отлично договаривается со своей копией – точность с 56% до 99% за 50 раундов. Но человек + LLM застревают на 70%. Исследование показывает почему AI плохо усваивает ваши соглашения в диалоге и как это обойти. Причина – разная категоризация мира. Люди видят гештальт ('танцор'), AI видит набор признаков ('большой треугольник слева, два маленьких справа образуют ногу'). Когда говоришь 'давай называть это танцором', модель повторяет слово, но не переключается на категориальный режим – продолжает описывать геометрию. AI-AI пары успешны потому что видят одинаково – общий энкодер изображений, общие веса, одинаковая интерпретация каждой фигуры.

Принцип работы

LLM не угадывает твой стиль из контекста диалога. Люди автоматически подстраиваются под партнёра – сокращают фразы, перенимают термины, синхронизируются. AI – нет. Модель генерирует 5 или 50 слов с одинаковым усилием – не чувствует давления на экономию. В исследовании люди сократили описания с 20 до 6 слов за 50 раундов. AI с AI – с 58 до 56 (почти не изменилось), хотя точность взлетела до 99%. Нет метаболических затрат на генерацию – нет естественной мотивации экономить длину. Поэтому работает явная инструкция: 'Стиль: через аналогии, максимум 10 слов' + напоминания в процессе.

Почему работает

Две причины провала пар человек-AI. Первая – отсутствие давления на краткость. Люди платят энергией за каждое слово (печатать, держать в памяти) – эволюционно минимизируют. Трансформер генерирует токены последовательно. 5 или 50 требуют одинакового вычислительного усилия для модели. Она не чувствует этих затрат. Вторая – разная интерпретационная база. Люди видят абстрактную фигуру как целостный образ – категориальное восприятие ('человек на скейте'). LLM обрабатывает через энкодер изображений – набор форм и пространственных отношений ('треугольник A в позиции X соединён с треугольником B'). Когда предлагаешь 'давай назовём это танцором', модель повторяет термин, но не усваивает категорию – продолжает добавлять геометрические детали из своего видения. AI-AI пары достигли 99% точности и в 2 раза более высокой стабильности терминов чем пары людей – общая архитектура даёт идентичную интерпретацию каждого объекта.

Когда применять

Работа с командой над внутренней терминологией → договориться об общих названиях и определениях для сложных концепций. Особенно когда нужна система обозначений для повторяющихся объектов или процессов – дизайн-система, техническая документация, классификация большого набора данных. НЕ подходит для бытовой переписки – LLM не уловит твой стиль общения автоматически, даже после 50 сообщений.

Мини-рецепт

1. Задай стиль категоризации явно: В начале диалога или system prompt пропиши Описывай через аналогии и ассоциации, не через геометрию или Используй образные сравнения (как X, похоже на Y), не технические детали

2. Создай искусственное давление на длину: С каждым ответом сокращай текст. К 5-му ответу – максимум 1-2 предложения или жёсткий лимит максимум 10 слов на каждый ответ

3. Покажи примеры до-после: Few-shot с парами – было длинное геометрическое описание, стало короткая метафора. Модель уловит паттерн лучше чем из абстрактной инструкции

4. Напоминай в процессе: Мы договорились называть это X. Используй X, не описывай заново – модель не запомнит соглашение автоматически, нужно закреплять явно

Примеры

[ПЛОХО] : Просто описываешь задачу и ждёшь что модель подстроится под твой стиль в ходе диалога – сократит ответы, запомнит твои термины
[ХОРОШО] : Задаёшь структуру явно: Я опишу 5 концепций продукта. Для каждой нужно: короткое название (1-2 слова, метафора), определение в одно предложение, пример в одно предложение. Стиль: через образы, не технический жаргон. После каждой концепции я скажу 'ок' или предложу правки. Ты адаптируешь под мои правки. К концу – утверждённый словарь. [ЕЩЁ ЛУЧШЕ для стабильных соглашений]: Используешь мультиагентность внутри одного промпта: Агент A и Агент B обсуждают название процесса. Сначала Агент A предлагает метафору. Агент B критикует или соглашается. Приходят к общему термину. Затем используют этот термин для описания всех похожих процессов. – два экземпляра модели внутри одного контекста договариваются стабильнее (AI-AI в исследовании показали в 2 раза выше согласованность терминов чем пары людей).
Источник: LLMs and people both learn to form conventions -- just not with each other
ArXiv ID: 2602.08208 | Сгенерировано: 2026-02-10 08:33

Проблемы LLM

ПроблемаСутьКак обойти
Модель не сокращает текст естественноЛюди в повторяющемся диалоге автоматически экономят слова. Первый раз: "фигура похожа на человека который прыгает, верхний треугольник как голова". Пятый раз: "прыгун". Модель так не делает. Даже после 50 раундов продолжает писать длинные описания. Причина: нет естественного давления. Люди тратят энергию на каждое слово (печатать, говорить, держать в памяти) — устают. Модель генерирует 5 токенов или 50 с одинаковым "усилием". Не чувствует разницыЯвно требуй сокращения: "С каждым следующим ответом сокращай текст. К пятому ответу — максимум 10 слов". Или жёсткий лимит в промпте: "Каждый ответ — не больше 2 предложений". Напоминай в процессе: "Мы это уже обсудили. Теперь кратко"
Модель описывает геометрией вместо аналогийЧеловек смотрит на абстрактную фигуру и видит целостный образ: "танцор", "самолёт". Модель видит набор форм и отношений: "большой треугольник слева, два маленьких справа образуют ногу". Разные способы категоризации. Люди используют гештальты (целостные образы). Vision encoder модели выдаёт признаки и пространственные связи. Когда человек говорит "давай называть это танцором", модель повторит слово. Но продолжит добавлять геометрические детали. Не переключается на категориальный режимЯвно задай стиль: "Описывай через аналогии и ассоциации, не через геометрию". Или покажи примеры: "Фигура 1: 'Танцор'. Фигура 2: 'Самолёт'. Теперь фигура 3 — опиши по тому же принципу". Few-shot работает лучше абстрактных инструкций

Методы

МетодСуть
Два AI-агента вместо человек-AI диалогаСоздай двух "участников" внутри одного промпта. Пусть Агент A и Агент B обсуждают задачу. Сначала договариваются о терминах. Потом используют общий словарь. Почему работает: Это не разные модели — одна модель симулирует две роли. Общая архитектура + одинаковые веса + один контекст = идентичная интерпретация. Два экземпляра видят объекты одинаково (один vision encoder), описывают одинаково (один language model). Формируют более стабильные соглашения чем модель с человеком. Когда применять: нужна договорённость о терминологии, внутренний словарь, согласование обозначений. Синтаксис: Агент A предлагает термины для {концепция}. Агент B критикует или соглашается. Приходят к общему словарю. Используют его для {задача}
📖 Простыми словами

LLMsand people both learn to form conventions -- just not with each other

arXiv: 2602.08208

Языковые модели и люди общаются по принципиально разным законам, и в этом главная проблема. Когда два человека долго обсуждают что-то сложное, они неизбежно вырабатывают общие конвенции: сокращают длинные описания до одного слова и начинают понимать друг друга с полунамёка. Это база человеческой коммуникации — мы постоянно оптимизируем «протокол» общения, чтобы тратить меньше сил. Но когда в эту цепочку встаёт AI, всё ломается, потому что механика адаптации у нас и у нейросетей работает на разных скоростях и уровнях.

Это как если бы ты пытался договориться о терминах с золотой рыбкой, у которой память чуть длиннее, чем в анекдотах, но всё равно ограничена. Ты уже придумал кодовое название для сложного процесса, а твой собеседник каждый раз начинает с чистого листа, игнорируя наработанный контекст. В итоге вы не сближаетесь, а просто топчетесь на месте: ты ждёшь понимания с полуслова, а получаешь сухую инструкцию из учебника. Формально диалог идёт, но коннекта нет.

Исследование показало, что в парах AI-AI всё проходит идеально — модели быстро находят общий язык и сокращают описания до минимума, потому что играют по одним правилам. В парах Человек-Человек тоже всё круто: точность растёт, фразы становятся короче. Но как только мы смешиваем виды в паре Человек-AI, наступает полный облом. Люди пытаются вводить новые термины и упрощать речь, но нейронка либо тупит, либо продолжает выдавать избыточные простыни текста. 100% точности в таких парах достичь почти невозможно, потому что стороны не слышат друг друга.

Этот принцип универсален для любой командной работы. Если ты внедряешь AI в бизнес-процессы и ждёшь, что он «сам поймёт» твой сленг или внутреннюю терминологию через пару чатов — забудь. Тестировали это на простых картинках, но это работает и в разработке продуктов, и в маркетинге. LLM не умеют в гибкие соглашения на лету так, как это делаем мы. Они заперты в своих весах и обучающих данных, и никакие 50 раундов переписки не заставят их по-настоящему «спеться» с человеком.

Короче: не надейся, что нейросеть станет твоим понимающим напарником в долгих проектах без жестких костылей. Чтобы AI понимал твои внутренние термины, их нужно вбивать в системный промпт или базу знаний, а не пытаться «приучить» его в процессе диалога. Пока мы не научим модели реально учиться в реальном времени, любая попытка создать общий язык с AI будет выглядеть как разговор немого с глухим. Конвенции не рождаются в хаосе, они требуют взаимной гибкости, которой у текущих моделей просто нет.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с