3,583 papers
arXiv:2512.09483 70 10 дек. 2025 г. FREE

LLM-поисковики против Google: где искать информацию и почему это важно

КЛЮЧЕВАЯ СУТЬ
Обнаружено: ChatGPT Search и Google показывают разные вселенные источников — только 38% доменов пересекаются, остальные уникальны для каждого типа поисовика. Исследование позволяет понять когда использовать LLM-поисовик (Perplexity, ChatGPT Search), а когда классический Google — для критичных задач нужны оба. 37% доменов из LLM-выдачи вообще не попадают в топ Google/Bing. LLM возвращают меньше ссылок (4 против 10), но более разнообразные источники — топ-сайты не доминируют. Парадокс для новостей: LLM чаще цитируют первоисточники (Reuters, AP News), Google — крупные медиа (CNN, USA TODAY).
Адаптировать под запрос

TL;DR

Большое исследование сравнило 6 LLM-поисковиков (ChatGPT Search, Perplexity, Gemini, Grok, Google AI Mode, Copilot) с Google и Bing на 55,936 запросах. Учёные смотрели: какие сайты цитируют поисковики, насколько они популярны, надёжны и политически нейтральны.

Главная находка: LLM-поисковики и классические поисковики показывают разные миры источников. Только 38% доменов пересекаются — остальные уникальны. 37% сайтов вообще не попадают в выдачу Google/Bing, если ты ищешь через ChatGPT или Perplexity. При этом LLM-поисковики возвращают в 2-3 раза меньше ссылок (в среднем 4 против 10), но более разнообразные источники — меньше доминирования топовых сайтов. Парадокс: для новостей LLM-поисковики чаще цитируют первоисточники (Reuters, AP News), а Google/Bing — крупные медиа (CNN, USA TODAY).

Практический вывод: если тебе нужна полная картина — используй оба типа поисковиков. LLM-поисковик даст быстрый ответ с разнообразными, но менее популярными источниками. Google/Bing покажут топовые сайты, которые все знают. Для важных решений — проверяй источники вручную, потому что по надёжности, политической нейтральности и безопасности LLM-поисковики не лучше классических (а Gemini и Grok показывают политическую предвзятость).


📌

Главные находки

📌

1. Разные вселенные источников

  • 37% доменов уникальны для LLM-поисковиков — их нет в Google/Bing
  • 25% доменов уникальны для Google/Bing — их не покажет ChatGPT
  • Только 38% пересечение — общие сайты для обоих типов

Даже сервисы одной компании расходятся: Google Search, Google AI Mode и Gemini показывают разные источники на 30%+ запросов.

📌

2. Меньше ссылок, но разнообразнее

LLM-поисковики: - В среднем 4 ссылки на запрос - 3-4 уникальных домена - Grok в 82% случаев вообще не даёт ссылок (опирается на внутреннюю базу) - Gemini в 38% ответов без цитат

Google/Bing: - В среднем 10 ссылок на запрос - 7 уникальных доменов

Но: LLM-поисовики показывают более равномерное распределение — меньше доминирования топ-сайтов (Gini-индекс ниже, чем у TSE).

📌

3. Популярность источников

Когда источники пересекаются, LLM-поисковики чаще берут топ-1 из Google/Bing: - 23% цитат Copilot = первая позиция в Bing - 15% цитат Gemini = первая позиция в Google

Но в целом (включая уникальные домены) LLM-поисковики цитируют менее популярные сайты: - Средний Tranco-ранг у Gemini: 64,121 (ниже трафик) - Средний Tranco-ранг у Google: 41,428 (выше трафик) - Исключение: ChatGPT близок к Google

⚖️

4. Новости: первоисточники vs медиа-гиганты

LLM-поисковики чаще цитируют: - Reuters (RTD = –0.70 против Google) - AP News (RTD = –0.41 против Bing) - The Guardian, BBC

Google/Bing чаще показывают: - CNN - USA TODAY (RTD = +0.30) - Townhall (RTD = +0.28)

Это разные редакционные линии — LLM тяготеют к агентствам, Google — к массовым медиа.

📌

5. Качество: не лучше классики

Исследование проверило политическую нейтральность, надёжность, безопасность (через Media Bias/Fact Check и VirusTotal):

Политическая предвзятость: - Gemini показывает частый крен влево (far-left источники) - Grok самый низкий показатель нейтральности - Оба опираются на узкий круг источников, что усиливает риск эхо-камеры

Надёжность и безопасность: - LLM-поисковики НЕ превосходят Google/Bing - Меньше ссылок ≠ более безопасные ссылки


📌

Что это значит для тебя

📌

Когда использовать LLM-поисковики

Нужен быстрый ответ с разными углами зрения - Perplexity, ChatGPT Search соберут разнообразные источники - Покажут менее очевидные сайты

Новости: хочешь первоисточники - LLM чаще цитируют Reuters, AP, BBC - Google покажет CNN и медиа-агрегаторы

Исследование темы: нужны альтернативы - 37% уникальных доменов — это новые ракурсы

📌

Когда использовать Google/Bing

Важна полнота картины - Классические поисковики дают больше ссылок (10 vs 4) - Видишь топовые и авторитетные сайты

Нужна проверенная информация - Более популярные домены = чаще проверяются сообществом - Google/Bing не превосходят в безопасности, но и не хуже

Критичное решение - Проверяй источники вручную - LLM-поисковики не надёжнее по политической нейтральности

📌

Золотая стратегия: комбинируй

Для важных задач: 1. Запусти поиск в LLM-поисковике (Perplexity / ChatGPT Search) → получишь суммаризацию + разнообразные источники 2. Проверь ту же тему в Google → увидишь топовые сайты, которые LLM мог пропустить 3. Сравни: если источники сильно расходятся — копни глубже, может быть противоречие

Пример: Задача: Оценить новый закон о криптовалютах в России

Шаг 1: Perplexity - Вопрос: "Какие изменения в законе о криптовалютах в России в 2025?" - Получишь: Reuters, РБК, местные правовые порталы

Шаг 2: Google - Тот же запрос - Получишь: РИА, ТАСС, Коммерсантъ, Forbes Russia

Шаг 3: Сравни - Perplexity показал узкоспециализированные правовые сайты? - Google дал мейнстрим-медиа? - Проверь, совпадают ли факты в обоих списках

Если источники не пересекаются > 60% — значит, есть разногласия в трактовке. Читай обе стороны.


⚠️

Ограничения исследования

⚠️ Снимок момента: Данные собраны июль-август 2025, поисковики обновляют алгоритмы. Актуальность выводов снижается со временем.

⚠️ География: Исследование по USA трендам. В России контекст может отличаться (особенно для новостей и политически окрашенных тем).

⚠️ Не покрыты все сценарии: Исследование использует трендовые запросы, спорные вопросы, related questions. Специфические профессиональные запросы (медицина, право, наука) могут давать другую картину.

⚠️ Качество оценено частично: Media Bias/Fact Check и VirusTotal не покрывают все домены. Например, MBFC только для новостей. Многие источники из выдачи не имеют оценок надёжности.

⚠️ ChatGPT требует логина: Единственный LLM-поисковик с обязательной авторизацией. Это может влиять на персонализацию, хотя исследователи отключали память.


🔗

Ресурсы

Source Coverage and Citation Bias in LLM-based vs. Traditional Search Engines

Peixian Zhang, Qiming Ye, Zifan Peng (The Hong Kong University of Science and Technology), Kiran Garimella (Rutgers University), Gareth Tyson (HKUST)

Датасет: 55,936 запросов, 124,287 доменов, 1,418,733 URL

Инструменты аннотации: Forcepoint ACE (категоризация), Tranco Ranking (популярность), Media Bias/Fact Check (политика + надёжность), VirusTotal (безопасность)


📋 Дайджест исследования

Ключевая суть

Обнаружено: ChatGPT Search и Google показывают разные вселенные источников — только 38% доменов пересекаются, остальные уникальны для каждого типа поисовика. Исследование позволяет понять когда использовать LLM-поисовик (Perplexity, ChatGPT Search), а когда классический Google — для критичных задач нужны оба. 37% доменов из LLM-выдачи вообще не попадают в топ Google/Bing. LLM возвращают меньше ссылок (4 против 10), но более разнообразные источники — топ-сайты не доминируют. Парадокс для новостей: LLM чаще цитируют первоисточники (Reuters, AP News), Google — крупные медиа (CNN, USA TODAY).

Принцип работы

Не полагайся на один тип поисковика — комбинируй оба для важных задач. LLM-поисовик даст быстрый ответ с неочевидными источниками, Google покажет топовые сайты которые все знают. Если списки расходятся больше чем на 60% — копай глубже, есть разногласия в трактовке темы.

Почему работает

LLM-поисовики используют другой алгоритм ранжирования — они не просто копируют топ Google. Исследование показало что только 15-23% цитат LLM совпадают с первой позицией в Google/Bing. Остальные 77-85% берутся из источников с более низким трафиком, но релевантных для запроса — средний Tranco-ранг у Gemini 64,121 против 41,428 у Google. При этом по надёжности, политической нейтральности и безопасности LLM не превосходят классические поисовики — Gemini склоняется влево, Grok показывает низкую нейтральность.

Когда применять

Исследование темы → используй LLM-поисовик (Perplexity, ChatGPT Search) для разнообразных источников и быстрой суммаризации, особенно когда нужны альтернативные ракурсы (37% уникальных доменов). Для новостей → LLM чаще цитируют первоисточники (Reuters, AP, BBC), Google — медиа-агрегаторы (CNN, USA TODAY). Критичное решение → запусти поиск в обоих типах поисовиков, сравни источники. Если пересечение меньше 40% — копай глубже, есть противоречия. НЕ подходит: если нужна только проверенная информация из топовых сайтов — используй классический Google (больше ссылок, выше популярность источников).

Мини-рецепт

1. Запусти поиск в LLM-поисовике (Perplexity / ChatGPT Search): получишь суммаризацию + разнообразные источники, включая менее популярные домены
2. Проверь ту же тему в Google: увидишь топовые сайты с высоким трафиком, которые LLM мог пропустить
3. Сравни списки источников: если пересечение меньше 40-60% — значит разногласия в трактовке, читай обе стороны
4. Для новостей: LLM → Reuters/AP/BBC (первоисточники), Google → CNN/USA TODAY (медиа-гиганты)

Примеры

[ПЛОХО] : Какие изменения в законе о криптовалютах в России? — используешь только ChatGPT Search или только Google, получаешь неполную картину
[ХОРОШО] : Запрос в Perplexity: Какие изменения в законе о криптовалютах в России в 2025? — получаешь Reuters, РБК, правовые порталы. Тот же запрос в Google — видишь РИА, ТАСС, Forbes Russia. Сравниваешь списки: пересечение меньше 60%, значит читаешь обе стороны — возможны противоречия в трактовке фактов
Источник: Source Coverage and Citation Bias in LLM-based vs. Traditional Search Engines
ArXiv ID: 2512.09483 | Сгенерировано: 2026-01-09 00:49
📖 Простыми словами

LLM-поисковики против Google: где искать информацию и почему это важно

arXiv: 2512.09483

Традиционные поисковики и новые AI-ассистенты работают по принципиально разным схемам. Если Google — это огромная библиотекарь-зануда, который просто тычет пальцем в полку, то LLM-поисковики вроде ChatGPT или Perplexity — это пересказчики, которые фильтруют реальность через свое «мнение». Проблема в том, что этот фильтр работает как черный ящик: нейронки выбирают источники не по их объективному весу, а по тому, насколько удобно текст вписывается в их логику ответа. В итоге мы получаем не срез интернета, а авторскую интерпретацию, где алгоритм сам решает, кто достоин упоминания, а кто — нет.

Это как если бы ты спросил у прохожих дорогу, но вместо карты тебе дали краткий пересказ чьих-то впечатлений о районе. Вроде бы всё логично, но ты не знаешь, почему рассказчик проигнорировал главную дорогу и повел тебя через дворы. В исследовании на 56 тысячах запросов выяснилось, что AI-поисковики страдают жесткой предвзятостью цитирования: они могут игнорировать топовые сайты, которые Google ставит на первое место, и вытаскивать на свет божий какую-то дичь или, наоборот, замыкаться на узком круге «любимчиков».

Что реально происходит внутри: ChatGPT Search, Gemini и Perplexity демонстрируют разную степень «всеядности». Одни модели тяготеют к популярным медиа, другие — к официальным источникам, но почти все они лажают в охвате источников. Если Google честно показывает тебе 10 разных ссылок, то AI-поисковик может выдать ответ, опираясь всего на пару сайтов, игнорируя альтернативные мнения. Это создает информационный пузырь, где пользователь даже не подозревает, что 90% релевантного контента осталось за бортом, потому что нейронке было лень его «читать».

Тестировали эту механику на гигантском массиве данных, но принцип универсален для любого взаимодействия с AI. Будь то поиск кроссовок или анализ политических новостей, нейронка всегда будет подмешивать свой цитатный перекос. Это касается не только ChatGPT, но и Copilot с Grok — каждый из них «дружит» с определенным типом контента. SEO-оптимизация превращается в лотерею, где важно не просто быть в топе выдачи, а понравиться конкретному алгоритму, который решит, вставить твою ссылку в свой ответ или выкинуть её в корзину.

Короче: верить AI-поисковику на слово — это полный провал, если тебе нужна объективная картина. Исследование четко показывает, что мы переходим от эпохи поиска информации к эпохе потребления готовых мнений, где разнообразие источников приносится в жертву удобству. Если не хочешь жить в мире, где твой кругозор ограничен пятью сайтами, которые понравились Gemini, придется по старинке перепроверять факты. AI не ищет истину, он просто собирает складный текст, и это главная ловушка, в которую мы сейчас дружно прыгаем.

Работа с исследованием

Адаптируйте исследование под ваши задачи или создайте готовый промпт на основе техник из исследования.

0 / 2000
~0.5-2 N-токенов ~10-30с
~0.3-1 N-токенов ~5-15с