3,583 papers
arXiv:2511.03214 82 5 нояб. 2025 г. PRO

LGM: расширение концептов через мета-отношения для точного поиска знаний

КЛЮЧЕВАЯ СУТЬ
LLM упускает до половины релевантной информации если она описана не напрямую. Запрос 'Чем богаты яблоки?' не найдёт 'Фрукты содержат витамины', хотя яблоко — это фрукт. Модель ищет только прямое слово, игнорируя родительские категории и части. LGM (Language Graph Model) позволяет собирать полный ответ из информации разбросанной по иерархии концептов — родители, дочерние категории, составные части, синонимы. Расширяешь концепт через три типа отношений: (1) Наследование — родители и дети (яблоко ↔ фрукт ↔ еда), (2) Состав — из каких частей (яблоко = кожура + мякоть + семечки), (3) Синонимы — альтернативные названия (apple = яблоко). Модель находит описания на всех уровнях — получаешь структурированное понимание вместо поверхностного ответа.
Адаптировать под запрос
📋 Дайджест исследования

Контент доступен только для PRO подписчиков

Чтобы получить доступ к дайджесту этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Контент доступен только для PRO подписчиков

Чтобы получить доступ к концептам этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO
📖 Простыми словами

Контент доступен только для PRO подписчиков

Чтобы получить доступ к упрощённому объяснению этого исследования, оформите PRO подписку

💳 Оплатить через Геткурс
YandexPay • SberPay • СБП • Карты РФ
⚡ Оплатить через Tribute
Telegram Stars • Моментальный доступ
Узнать о PRO

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с