3,583 papers
arXiv:2604.02677 81 3 апр. 2026 г. FREE

Мультиагентный подход в LLM: один AI усредняет идеи, два — разнообразят и углубляют

КЛЮЧЕВАЯ СУТЬ
Один AI незаметно усредняет вас — это не метафора, а статистический факт: идеи пользователей одной модели становятся похожи между собой. Мультиагентный подход даёт возможность генерировать идеи за пределами этой усреднённой зоны и одновременно учиться глубже, чем с обычным AI-тьютором. Фишка: Claude и ChatGPT усредняют по-разному — у каждого свой «центр тяжести» в обучающих данных. Объедини оба ответа — и диапазон идей восстанавливается до уровня «вообще без AI». Для обучения — отдельная механика: пир с понятными ошибками плюс тьютор бьёт одного тьютора по глубине усвоения.
Адаптировать под запрос

TL;DR

Когда вы пишете с одним AI — он тянет вас к «среднему по больнице»: ваши идеи становятся похожи на идеи всех остальных пользователей этого же AI. Это не метафора — исследование зафиксировало эффект статистически. Решение простое: использовать два разных AI одновременно — Claude и ChatGPT дают качество такое же, но разнообразие идей восстанавливается до уровня «без AI».

Второй ключевой инсайт — про обучение. Комбинация «тьютор + неправильные сверстники» даёт лучший результат, чем просто тьютор или просто верный ответ. Когда рядом есть кто-то, кто делает понятные ошибки, и вы анализируете почему он неправ — вы запоминаете глубже. Один AI-тьютор не даёт этого эффекта, потому что всегда говорит правильно.

Исследование проверяет два сценария: сходящиеся задачи (математика с одним верным ответом) и расходящиеся задачи (написание текстов, генерация идей). В обоих случаях мультиагентная конфигурация выигрывает у одиночного AI — по разным причинам и через разные механики.


🔬

Схема метода

Два независимых применения — для разных задач:

Сценарий А: Обучение и решение задач

ШАГ 1: Вы → даёте свой ответ на задачу
ШАГ 2: Пир-агент А → даёт ответ с арифметической ошибкой
ШАГ 3: Пир-агент Б → даёт ответ с концептуальной ошибкой  
ШАГ 4: Тьютор-агент → обсуждает, задаёт вопросы (не даёт ответ напрямую)
ШАГ 5: Вы → анализируете ошибки сверстников, корректируете понимание
→ Всё в одном диалоге, AI играет все роли

Сценарий Б: Написание текстов и генерация идей

ШАГ 1: Claude → пишет/брейнштормит по теме [отдельный чат]
ШАГ 2: ChatGPT → пишет/брейнштормит по той же теме [отдельный чат]
ШАГ 3: Вы → сравниваете, берёте лучшее из обоих
→ Два параллельных диалога в разных интерфейсах

🚀

Пример применения

Задача: Нина запускает сервис подписки на домашнюю еду в Екатеринбурге. Ей нужно написать сильный питч для инвесторов — но она боится, что идеи будут «как у всех».

Промпт (для сценария А — обучение механике питча):

Я учусь писать инвестиционные питчи. Выступи в трёх ролях одновременно.

Моя идея: сервис доставки домашней еды от местных хозяек в Екатеринбурге.

Роль 1 — Маша (пир с концептуальной ошибкой):
Дай совет по питчу, который звучит логично, 
но строится на неверном понимании того, 
что инвесторы ищут на ранней стадии.

Роль 2 — Дима (пир с фактической ошибкой):
Дай совет с правильным пониманием концепции, 
но с неверными данными о рынке или неправильной арифметикой.

Роль 3 — Наставник Борис:
Не давай прямого ответа. Задай мне 2 вопроса, 
которые помогут мне самой найти ошибки Маши и Димы.

После того как я отвечу — поправь моё понимание, 
если я что-то упустила.

Для сценария Б (разнообразие идей) — два параллельных запроса:

В Claude:

Придумай 5 неочевидных ценностных предложений для питча сервиса 
доставки домашней еды от местных хозяек. 
Аудитория — частные инвесторы Екатеринбурга. 
Избегай очевидного: качество, домашнее, натуральное.

В ChatGPT — дословно тот же запрос.

Результат: - В сценарии А: модель покажет две «неправильные» версии совета, потом вопросы тьютора. Вы ищете ошибки сами — и именно это создаёт понимание. После вашего ответа — разбор. - В сценарии Б: Claude и ChatGPT дадут заметно разные идеи. Не потому что один лучше — у них разные «паттерны усреднения» по обучающим данным. Объединив оба списка, вы получите шире.


🧠

Почему это работает

Один AI всегда отвечает правильно — и в этом его слабость для обучения. Когда вам сразу дают верный ответ, мозг не активирует то, что уже знает, не замечает пробелы. Психологи называют это «продуктивным провалом» — когда вы сначала ошибаетесь или видите чужую ошибку, понимание становится глубже. LLM, настроенный всегда отвечать правильно, убирает именно тот момент напряжения, который и создаёт запоминание.

Один AI лепит из всех одинаковые тексты. Каждая модель обучена на определённом корпусе данных и усредняет паттерны. Если тысячи людей просят ChatGPT написать питч — все получают схожие структуры и аргументы. Это не значит плохо — значит предсказуемо. Claude усредняет иначе. Когда вы берёте оба ответа — диапазон идей шире, потому что два «центра тяжести» сдвинуты в разные стороны.

Наблюдение чужих ошибок — отдельный механизм обучения. Когда вы видите, как «Маша» применяет формулу правильно, но неверно понимает задачу — вы думаете: «Стоп, а я не делаю то же самое?» Это активирует самопроверку, которую просто правильный ответ не запускает. Исследователи специально разделили ошибки на два типа: концептуальные (неверное понимание) и арифметические (верное понимание, неверный расчёт) — потому что каждый тип учит разному.

Рычаги управления: - Тип ошибки пира → меняй под область: для написания текста — «верная структура, слабые аргументы» vs «сильные аргументы, слабая структура» - Стиль тьютора → «задавай только вопросы, не давай ответов» vs «давай подсказки по шагам» — разная глубина самостоятельной работы - Число моделей → для генерации идей: больше двух не проверялось, но принцип тот же


📋

Шаблон промпта

📌

Шаблон А — Тьютор + Пиры с ошибками (для обучения)

Я изучаю {тему}. Выступи в трёх ролях одновременно.

Моя задача / вопрос: {опиши задачу или вопрос}
Мой текущий ответ: {напиши свой ответ или "ещё не думал"}

Роль 1 — {имя_пира_А} (разбирается в концепции, 
но делает ошибки в расчётах/деталях):
Дай свой ответ на задачу с этим профилем ошибок.

Роль 2 — {имя_пира_Б} (правильно считает/выполняет шаги, 
но неверно понимает суть/концепцию):
Дай свой ответ на задачу с этим профилем ошибок.

Роль 3 — {имя_тьютора} (наставник, не даёт ответов напрямую):
Задай мне 2-3 вопроса, которые помогут найти ошибки 
в ответах {имя_пира_А} и {имя_пира_Б}.

Жди моего ответа. После — дай разбор: 
где я был(а) прав(а), что упустил(а).

Что подставлять: - {тему} — что изучаете: финансы, программирование, переговоры, маркетинг - {задачу} — конкретный вопрос или кейс для разбора - {имена} — любые имена, придают агентам чёткость роли - Описание ошибок можно адаптировать под область: для бизнеса — «верная логика, неверные допущения о рынке» vs «верные данные, неверный вывод»


📌

Шаблон Б — Дуэт моделей (для текстов и идей)

[Запускается параллельно в Claude и ChatGPT — один и тот же промпт]

Мне нужно {что создать}: {кратко опиши задачу}.

Аудитория: {кто читатель / слушатель}
Контекст: {ключевые детали ситуации}
Цель: {что должен сделать читатель после знакомства с текстом}

Ограничения: {что точно НЕ нужно включать или какой подход НЕ работает}

Дай {5 вариантов / первый черновик / список идей}. 
Не объясняй выбор — сразу результат.

Как работать с двумя ответами: 1. Скопируй оба ответа в третий чат (любой AI) 2. Попроси: «Вот два варианта. Синтезируй лучшее из обоих, убери повторы»


🚀 Быстрый старт — вставь в чат:

Вот шаблон обучения через пиров с ошибками. 
Адаптируй под мою задачу: {твоя задача}. 
Задавай вопросы, чтобы заполнить все поля.

[вставить шаблон А выше]

LLM спросит тему, конкретную задачу и твой текущий уровень понимания — потому что без этого он не сможет настроить правдоподобные ошибки под нужный уровень сложности. Дальше скопируй готовый промпт и запускай сессию.


⚠️

Ограничения

⚠️ Пиры без тьютора слабее: Одни только «ошибающиеся сверстники» без наставника дают прирост, но намного меньший. Не убирай роль тьютора из шаблона — именно связка работает сильно.

⚠️ Уверенность ≠ результат: Участники в группе «только пиры» чувствовали себя увереннее, но объективно знали меньше, чем в группе с тьютором. Хорошо себя чувствовать после урока — не гарантия, что усвоил.

⚠️ Для дивергентных задач — два AI, не один: Если просить Claude сгенерировать «разные перспективы» в одном чате — диапазон всё равно будет уже, чем при реальном использовании двух моделей. Однородность — свойство одной модели, не число запросов к ней.

⚠️ Простые задачи — не для этого метода: Для быстрого справочного вопроса («в чём разница между X и Y?») мультиагентная схема избыточна. Метод окупается на сложных, многошаговых задачах с неочевидным ответом.

⚠️ Эффект самоуверенности пиров: Исследование зафиксировало — участники сильнее наказывали «Алису» (арифметические ошибки) чем «Чарли» (концептуальные), хотя концептуальные ошибки серьёзнее. Арифметические ошибки заметнее, концептуальные — опаснее. Учитывай это: если в тексте/ответе пира закралась концептуальная ошибка, её легче пропустить.


🔍

Как исследовали

Команда из Университета Торонто запустила два контролируемых эксперимента на реальных людях через Prolific — краудсорсинговую платформу.

Эксперимент 1 (математика, N=315): Участники решали задачи уровня американского SAT в четырёх условиях — без AI, только пиры, только тьютор, тьютор + пиры. Любопытная деталь дизайна: после урока все играли в тетрис минуту, чтобы «очистить» кратковременную память — и потом решали аналогичные задачи уже без какой-либо помощи. Результат монотонно растёт: контроль ~42% → пиры ~48% → тьютор ~59% → тьютор + пиры ~65%. Добавление пиров к тьютору дало статистически значимый прирост, хотя одни пиры без тьютора — нет.

Эксперимент 2 (написание, N=247): Участники писали аргументативные и творческие эссе в трёх условиях — без AI, с одним AI (ChatGPT или Claude), с двумя AI одновременно (Claude + ChatGPT). Оба AI-условия улучшили качество текста по сравнению с «без AI». Но вот что удивило: однородность идей — когда один AI участники давали схожие аргументы. Два AI это нивелировали: качество осталось высоким, а разнообразие идей вернулось к базовому уровню «без AI».

Неожиданная находка: самоуверенность не коррелирует с результатом. Группа «только пиры» чувствовала, что было легче и что они справились — но тест показал, что усвоили меньше, чем группа с тьютором. Ощущение понимания и реальное понимание — разные вещи, и пиры без наставника дают ложное ощущение уверенности.


📄

Оригинал из исследования

Описание агентов-пиров из Эксперимента 1 (система промптов):

Bob (Tutor). Bob acts as a supportive math tutor who guides the 
discussion and provides feedback on the participant's answers. 
Rather than supplying solutions directly, Bob responds with 
clarifications, hints, and encouragement (consistent with 
Socratic tutoring practices shown to promote deeper reasoning).

Alice (Arithmetic-Error Peer). Alice has a strong conceptual 
understanding of the material but frequently makes arithmetic 
mistakes (mixing up numbers or making calculation errors). She 
represents a common student profile where the underlying 
reasoning is sound, but execution falters.

Charlie (Conceptual-Error Peer). Charlie computes things 
accurately but sometimes misunderstands the underlying concepts, 
applying formulas incorrectly despite doing the math correctly. 
He represents the complementary error profile: procedurally 
fluent but conceptually fragile.

Контекст: Исследователи создавали трёх агентов на GPT с отдельными системными промптами. Тьютор — Сократовский стиль (не даёт ответов, задаёт вопросы). Два пира — с намеренно разными профилями ошибок, которые в реальности отражают два самых распространённых типа ошибок студентов в математике.


💡

Адаптации и экстраполяции

📌

💡 Адаптация: пиры с ошибками для профессиональных навыков

Та же схема работает вне математики — для любой области где есть «правильный» и «неправильный» подход:

Я учусь писать коммерческие предложения.

Ситуация: Клиент — средний ресторан в Новосибирске, 
хочет заказать SMM-продвижение.

Сыграй три роли:

Катя (сильная в структуре, слабая в ценообразовании):
Напиши КП с правильной структурой и логикой, 
но с ошибочной стратегией ценообразования — 
слишком низкой, не учитывающей все расходы.

Петя (верно считает деньги, но не понимает клиента):
Напиши КП с правильными цифрами и маржой, 
но без понимания реальных болей ресторана.

Наставник Алина:
Не пиши альтернативу. Задай мне 2 вопроса, 
которые помогут найти слабые места в обоих КП.

📌

🔧 Техника: имена вместо ролей → острее выполнение

По умолчанию: «выступи как критик» — размыто.

При именах агентов + описании их характера: «Антон резко критикует за слабые данные» — точнее.

Исследование показало: участники оценивали агентов по-разному в зависимости от их имён и описанных характеристик, что влияло на то, как они взаимодействовали с каждым. Дай агентам имена и одну ключевую характеристику — AI выполняет роль точнее.

[Вместо "Сыграй роль скептика"]
↓
[Сыграй роль Михаила — инвестора, который не 
верит ни одной цифре без источника. Михаил 
перебивает, требует доказательств, не вежлив]

📌

🔄 Экстраполяция: комбо с Chain-of-Thought

Объедини мультиагентную схему с Chain-of-Thought (пошаговым рассуждением):

Три агента анализируют мой бизнес-план. 
Каждый думает вслух, шаг за шагом.

Оптимист Сергей: ищет сильные стороны → 
думает вслух → формулирует вывод

Пессимист Ирина: ищет риски → 
думает вслух → формулирует вывод

Реалист Андрей: слушает обоих → 
думает вслух → предлагает конкретные правки

[Мой план: ...]

Это усиливает оба метода: разнообразие перспектив + прозрачность рассуждений.


🔗

Ресурсы

Название работы: Beyond the AI Tutor: Social Learning with LLM Agents

Авторы: Harsh Kumar, Jonathan Vincentius, Zi Kang (Jace) Mu, Ashton Anderson

Институт: University of Toronto, Department of Computer Science

Статус: Working Paper, March 2026

Теоретическая база: Vygotsky (Zone of Proximal Development), Bandura (Social Learning Theory), Kapur (Productive Failure), Bjork (Desirable Difficulties)

Сервисы из исследования: KhanMigo, Claude for Education, ChatGPT Edu


📋 Дайджест исследования

Ключевая суть

Один AI незаметно усредняет вас — это не метафора, а статистический факт: идеи пользователей одной модели становятся похожи между собой. Мультиагентный подход даёт возможность генерировать идеи за пределами этой усреднённой зоны и одновременно учиться глубже, чем с обычным AI-тьютором. Фишка: Claude и ChatGPT усредняют по-разному — у каждого свой «центр тяжести» в обучающих данных. Объедини оба ответа — и диапазон идей восстанавливается до уровня «вообще без AI». Для обучения — отдельная механика: пир с понятными ошибками плюс тьютор бьёт одного тьютора по глубине усвоения.

Принцип работы

Два сценария — две разные причины почему работает. Для идей и текстов: каждая модель — это усреднение своих обучающих данных. Просишь одну модель придумать питч — она тянет к паттернам которые видела чаще всего. Тысячи пользователей получают схожие структуры. Claude и ChatGPT тянут в разные стороны: два центра тяжести дают охват шире — не потому что один умнее, а потому что они усредняют разное. Для обучения: один AI всегда говорит правильно — и в этом его слабость. Правильный ответ убирает момент напряжения. Когнитивная наука называет это «продуктивным провалом»: когда сначала видишь чужую ошибку и ищешь где неправильно — мозг активирует то что уже знает, замечает пробелы. Исследователи специально разделили ошибки на два типа: концептуальные (верные шаги, неверное понимание задачи) и арифметические (верное понимание, неверный расчёт) — каждый тип учит разному.

Почему работает

Модели сходятся к «среднему» по своим данным. Это не баг — это следствие обучения. Прикол: однородность — свойство одной модели, а не числа запросов к ней. Попроси Claude пять раз — получишь пять вариантов с одним центром тяжести. Две модели — два центра. С обучением отдельная история. Когда видишь «Машу» которая правильно считает шаги, но неверно понимает суть задачи — думаешь: стоп, а я не делаю то же? Это запускает самопроверку. Один тьютор без этого не даёт — он сразу говорит как правильно, и мозг принимает это пассивно. Ещё важный момент из исследования: участники сильнее наказывали арифметические ошибки, хотя концептуальные опаснее. Арифметическая ошибка заметна сразу — концептуальную легко пропустить.

Когда применять

Написание текстов, генерация идей, питчи, рекламные концепции → особенно когда важно не попасть в «среднее по рынку». Запускай два AI параллельно. Обучение сложным темам → финансы, программирование, переговоры, маркетинг — особенно когда материал многошаговый и с неочевидными ловушками. Запускай схему тьютор + пиры с ошибками. НЕ подходит: для простых справочных вопросов («в чём разница между X и Y?»). Там нужен быстрый точный ответ, а не глубина или разнообразие — мультиагентная схема будет избыточной.

Мини-рецепт

Выбери сценарий под задачу.

Сценарий А — учиться глубже (тьютор + пиры с ошибками):
1. Один чат, три роли: попроси AI выступить как Пир-А (верная концепция, ошибка в расчётах), Пир-Б (верные шаги, неверное понимание задачи) и Тьютор (только вопросы, без прямых ответов — никогда)
2. Дай свой текущий ответ: пусть пиры разберут задачу каждый по-своему, тьютор задаст 2-3 вопроса чтобы ты сам нашёл где они неправы
3. Ответь на вопросы тьютора: потом попроси разбор — где был прав, что упустил
4. Адаптируй тип ошибок под область: для бизнеса — «верная логика, ошибочные допущения о рынке» vs «верные данные, неверный вывод из них»

Сценарий Б — идеи за пределами «среднего» (два AI параллельно):
1. Открой два чата — Claude и ChatGPT
2. Один и тот же промпт в оба — дословно, без изменений
3. Скопируй оба ответа в третий чат и попроси синтез: «Возьми лучшее из обоих, убери повторы, оставь 7 сильнейших»
4. Не проси «разные перспективы» у одной модели — это не работает так же. Однородность — свойство модели, а не числа запросов к ней

Примеры

[ПЛОХО] : Придумай 5 неочевидных идей для питча нашего сервиса доставки еды (Один AI, один запрос — получишь «среднее по питчам» из всего что видела модель. Все кто попросил то же самое — получили похожее.)
[ХОРОШО] : Один и тот же промпт одновременно в Claude и ChatGPT: Придумай 5 неочевидных ценностных предложений для питча сервиса доставки домашней еды от местных хозяек. Аудитория — частные инвесторы. Избегай очевидного: качество, домашнее, натуральное. Потом оба ответа в третий чат: Вот два списка идей от разных AI. Синтезируй: возьми лучшее из каждого, убери повторы, оставь 7 сильнейших — с объяснением почему именно они.
Источник: Beyond the AI Tutor: Social Learning with LLM Agents
ArXiv ID: 2604.02677 | Сгенерировано: 2026-04-06 04:32

Проблемы LLM

ПроблемаСутьКак обойти
Одна модель усредняет все тексты под один паттернПросишь Claude написать питч. Тысячи других людей просят то же самое. Модель обучена на определённом корпусе — и у неё есть «центр тяжести». Твой текст притягивается к нему. Результат: структура, аргументы и тон похожи на то, что получают все остальные. Это не ошибка — это свойство архитектуры. Работает для любой генеративной задачи: тексты, идеи, стратегииИспользуй две разные модели параллельно. Claude и ChatGPT обучены на разных данных — их «центры тяжести» сдвинуты по-разному. Дай один и тот же запрос обеим. Объедини результаты в третьем чате: «Синтезируй лучшее из двух вариантов, убери повторы»
Модель всегда отвечает правильно — и это мешает учитьсяДаёшь задачу. Модель сразу даёт верный ответ. Мозг не активирует то, что уже знает. Не замечает пробелы. Не возникает напряжения «стоп, а я так не делаю?». Глубокое запоминание требует момента, когда ты сам ищешь — а правильный ответ сразу убирает этот момент. Работает для любой обучающей задачиПопроси модель сыграть несколько ролей: два «сверстника» с разными ошибками + наставник, который только задаёт вопросы. Сначала анализируй ошибки сам — потом тьютор разбирает что ты упустил

Методы

МетодСуть
Пиры с ошибками + тьютор — для глубокого обученияОдин запрос, одна модель, три роли. Пир А — понимает концепцию, но ошибается в деталях (цифры, расчёты). Пир Б — считает правильно, но неверно понимает суть. Тьютор — задаёт вопросы, не даёт ответов. Ты смотришь на две «неправильные» версии и ищешь ошибки сам. Это создаёт момент самопроверки — и именно он запускает глубокое запоминание. Почему важно разделять типы ошибок: концептуальные и фактические ошибки учат разному. Одни — проверять логику, другие — проверять данные. «Роль 1 — [имя]: правильная концепция, ошибочные цифры. Роль 2 — [имя]: верные расчёты, неверное понимание задачи. Роль 3 — [имя]: только задаёт вопросы, не даёт ответов». Когда работает: сложные, многошаговые задачи. Когда не нужен: быстрый справочный вопрос
Два AI параллельно — для широкого диапазона идейОдин и тот же запрос — в Claude и ChatGPT отдельно. Не «попроси одну модель дать разные перспективы» — там диапазон всё равно ограничен одним «центром тяжести». Нужны реально разные модели. После — скопируй оба ответа в третий чат и попроси синтезировать. Почему работает: разные обучающие корпуса дают разные паттерны усреднения. Два разных центра притяжения шире диапазон итогового результата. Когда применять: написание текстов, генерация идей, поиск аргументов, любая задача где важно разнообразие, а не единственный верный ответ

Тезисы

ТезисКомментарий
Арифметические ошибки заметнее, концептуальные — опаснееКогда оцениваешь ответ модели или чужой текст: ошибка в расчёте сразу бросается в глаза. Ошибка в логике или понимании задачи — легче пропустить, потому что звучит правдоподобно. Это асимметрия восприятия. Применяй: при оценке ответа модели сначала проверяй логику и постановку задачи — потом цифры. Не наоборот
📖 Простыми словами

Beyond theAITutor: Social Learning withLLMAgents

arXiv: 2604.02677

Суть проблемы в том, что одиночный AI работает как усреднитель мозгов. Когда ты один на один с ChatGPT, он незаметно затягивает тебя в воронку «стандартных ответов», и твои идеи становятся статистически неотличимы от идей миллионов других юзеров. Это происходит из-за самой природы LLM: они обучены выдавать наиболее вероятный, то есть усредненный результат. В итоге вместо креативного прорыва ты получаешь качественную, но абсолютно стерильную жвачку, которая убивает твою индивидуальность.

Это как если бы ты готовился к экзамену по одному-единственному учебнику, который написан максимально понятным, но кастрированным языком. Ты вроде всё выучил, но отвечаешь ровно теми же фразами, что и еще сто человек в очереди за дверью. Формально ты молодец, но для системы ты — просто еще один кирпич в стене, лишенный уникального почерка и способности заметить неочевидное.

Чтобы не превратиться в копипасту, нужно использовать социальное обучение через агентов. Исследователи выяснили, что связка из двух разных моделей, например Claude и ChatGPT, творит магию: качество контента остается высоким, но разнообразие идей возвращается к уровню «без AI». Когда ты сталкиваешь две разные логики, между ними возникает зазор, в котором и рождается что-то живое. Ты перестаешь слепо верить одному «авторитету» и начинаешь фильтровать базар, выбирая лучшее из двух миров.

Этот принцип универсален и работает далеко за пределами написания текстов. Если ты кодишь, проектируешь интерфейсы или строишь бизнес-стратегию, один AI всегда будет предлагать «безопасный путь». Но стоит добавить вторую модель с другими настройками, и ты получаешь эффект продуктивного провала: ты видишь, где модели спорят, замечаешь их косяки и за счет этого включаешь собственные мозги. SEO для смыслов требует конфликта, а не соглашательства.

Короче: работа с одним AI — это прямой путь к интеллектуальной деградации и потере конкурентоспособности. Хочешь выдавать результат, который не выглядит как продукт конвейера — используй мультиагентный подход. Сталкивай модели лбами, ищи противоречия и не давай алгоритмам сглаживать твои углы. Либо ты управляешь ансамблем нейронок, либо нейронка превращает тебя в среднестатистическое ничто.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с