3,583 papers
arXiv:2509.14546 85 18 сент. 2025 г. PRO

Проверка рациональности! Бенчмаркинг рациональности больших языковых моделей

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM не являются чисто логическими машинами — они имеют собственный набор когнитивных искажений, отличный от человеческого. Модели проваливаются в стратегическом мышлении (теория игр) и подвержены "ошибке невозвратных затрат", но превосходят людей в саморефлексии. Исследование создало масштабный тест рациональности LLM, выявив конкретные "слепые зоны" мышления для каждого типа задач — от оценки рисков до стратегического планирования. Теперь можно предсказывать, где модель ошибется, и упреждающе корректировать промпт, добавляя "защитные ограждения" от иррационального мышления.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с