3,583 papers
arXiv:2508.18676 76 26 авг. 2025 г. PRO

LRTab (Learn then Retrieve): обучение LLM на собственных ошибках для работы с таблицами

КЛЮЧЕВАЯ СУТЬ
Ошибки LLM ценнее правильных ответов — они показывают слепые зоны модели, которые можно превратить в инструкции. Метод LRTab позволяет улучшать работу с таблицами без файнтюнинга — только через промптинг с условиями-подсказками. Прогоняешь модель по тренировочным данным, на каждой ошибке просишь её же сформулировать Prompt Condition (типа "не путай абсолютный рост с процентным — всегда пиши формулу"). Потом для новых таблиц — достаёшь релевантные условия и добавляешь в промпт. +3-5 процентных пункта точности на табличных задачах.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с