3,583 papers
arXiv:2508.16636 88 16 авг. 2025 г. PRO

Когнитивная маршрутизация решений в больших языковых моделях: когда думать быстро, когда думать медленно

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM склонна давать быстрые, интуитивные ответы даже на сложные многогранные вопросы — отсюда поверхностные выводы и несогласованность в задачах, где даже эксперты спорят. Метод позволяет пользователю самому становиться "диспетчером" для модели — анализировать запрос перед отправкой и выбирать, нужен ли простой ответ или глубокий пошаговый разбор. Вместо одинакового подхода ко всем задачам, вы оцениваете запрос по 4 критериям (сила корреляции, пересечение доменов, число стейкхолдеров, уровень неопределенности) и либо пишете простой промпт, либо принудительно включаете "медленное мышление" через структурированные инструкции — +18% точности и +23% консистентности в неоднозначных задачах.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с