TL;DR
SQuAI — система из четырёх агентов для ответов на научные вопросы на базе 2.3 млн статей с arXiv. Работает так: первый агент разбивает сложный вопрос на подвопросы, второй генерирует черновики ответов для каждого найденного документа, третий фильтрует нерелевантные, четвёртый синтезирует итоговый ответ с точными цитатами к каждому утверждению.
Главная проблема: стандартный RAG обрабатывает вопрос целиком за один проход — это даёт поверхностный поиск для сложных вопросов вроде "Что такое квантовые вычисления и как их применяют в криптографии?". Модель ищет по всему вопросу сразу → находит документы где упоминаются оба термина, но необязательно в нужном контексте → генерирует ответ без проверки что каждый claim действительно подтверждён источником. Плюс нет прозрачности — пользователь не видит откуда взялся каждый факт.
Как SQuAI решает: Разбивает вопрос на независимые части ("Что такое квантовые вычисления?" + "Как квантовые вычисления применяют в криптографии?"), ищет документы для каждой отдельно, оценивает релевантность каждого документа по специальной формуле (не просто "да/нет", а с учётом уверенности модели), и собирает финальный ответ где каждое утверждение помечено ссылкой формата [1][2] с цитатами конкретных предложений из источников.
Схема метода
ШАГ 1 (Decomposer): Сложный вопрос → список подвопросов
ШАГ 2 (Hybrid Retrieval): Для каждого подвопроса → top-K документов (комбинация BM25 + dense embeddings)
ШАГ 3 (Generator): Для каждого документа → Q-A-E триплет (question-answer-evidence)
ШАГ 4 (Judge): Оценка релевантности каждого Q-A-E → фильтрация нерелевантных (через динамический порог)
ШАГ 5 (Answer Generator): Синтез финального ответа из оставшихся документов → inline цитаты [X] + citation context
Все шаги требуют отдельных запросов к API, это не один промпт. Между шагами передаются структурированные данные.
Пример применения
Задача: Ты аналитик в венчурном фонде и изучаешь новое направление — квантовые вычисления для защиты данных. Нужен краткий обзор: что это такое, какие есть криптографические применения, насколько это перспективно. Вопрос: "Что такое квантовые вычисления и как их применяют в криптографии?"
Как бы работал SQuAI-подход вручную в Claude/ChatGPT:
Промпт (шаг 1 — декомпозиция):
Вопрос: "Что такое квантовые вычисления и как их применяют в криптографии?"
Разбей этот вопрос на независимые подвопросы, чтобы искать информацию отдельно по каждому аспекту.
Промпт (шаг 2 — поиск, имитируем вручную):
Подвопрос 1: "Что такое квантовые вычисления?"
Найди 3-5 релевантных источников (статьи, обзоры).
Подвопрос 2: "Как квантовые вычисления применяют в криптографии?"
Найди 3-5 релевантных источников.
Промпт (шаг 3 — синтез с цитатами):
У меня есть [перечень источников по обоим подвопросам].
Напиши связный ответ на исходный вопрос. Требования:
- Каждое фактическое утверждение должно сопровождаться цитатой формата [1], [2] и т.д.
- После ответа приведи список цитат с конкретными предложениями из источников, подтверждающими каждое утверждение.
- Если утверждение не подтверждается источниками — не включай его в ответ.
Результат: Модель выдаст ответ вроде: "Квантовые вычисления используют кубиты для выполнения операций на основе квантовой механики [1]. Основное применение в криптографии — взлом классических алгоритмов шифрования через алгоритм Шора [2][3]."
После ответа — список цитат:
[1] Источник X, стр. Y: "Quantum computing leverages qubits to perform..."
[2] Источник Z, стр. W: "Shor's algorithm enables quantum computers to factor..."
Почему это работает
Проблема 1: Сложный вопрос → размытый поиск. Когда в вопросе несколько независимых аспектов ("что такое X" + "как X применяют"), обычный RAG ищет документы где упоминаются оба термина, но не обязательно в нужном контексте. Результат — релевантность падает.
Решение: Декомпозиция вопроса на подвопросы. Каждый подвопрос фокусируется на одном аспекте → поиск точнее → больше релевантных документов → лучшее покрытие темы.
Проблема 2: LLM галлюцинирует без явного контроля. Модель может сгенерировать правдоподобный, но ошибочный факт, особенно если источники противоречивы или неполны. Без цитат пользователь не может проверить.
Решение: Inline цитаты + citation context. Каждое утверждение явно привязано к источнику → можно проверить → меньше галлюцинаций. Плюс модель вынуждена работать только с тем, что есть в документах, а не домысливать.
Проблема 3: Абстракты vs full-text. Полные тексты научных статей огромные (десятки страниц) → модель теряется в деталях → релевантность контекста падает. Абстракты короче → фокус на главном → меньше шума.
Рычаги управления (если адаптируешь вручную):
- Число подвопросов: Сложный вопрос → больше подвопросов (до 5-7), простой → можно без декомпозиции
- Число источников на подвопрос: Простая тема (например, определение) →
