3,583 papers
arXiv:2508.13930 65 19 авг. 2025 г. PRO

InPars+: Усиление генерации синтетических данных для систем информационного поиска

КЛЮЧЕВАЯ СУТЬ
Обнаружено: LLM, получив задачу «сгенерируй X», выдает шаблонный результат, потому что просто ищет наиболее вероятное продолжение. Отсюда поверхностность и повторы. InPars+ доказывает: промпты с Chain-of-Thought (пошаговым рассуждением) генерируют на порядок более качественные результаты, чем прямые инструкции. Секрет в том, чтобы не просить результат, а описать процесс мышления, который к нему приведет — модель перестает «угадывать» и начинает анализировать. Эффект: вместо шаблонных ответов — продуманные решения.
Адаптировать под запрос

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с