Прежде чем мы начнем, небольшое предупреждение: нас ждет математика! Если вычисления и формулы заставляют вашу голову пухнуть и вызывают желание сесть и съесть целый торт — приготовьтесь (или захватите торт). Но если вы любите математику, обожаете уравнения и искренне верите, что k=N (садист!), тогда эта статья приведет вас в восторг, пока мы погружаемся в гибридный поиск.
Годами (десятилетиями) SEO существовало в единственной петле обратной связи. Мы оптимизировали, ранжировались и отслеживали. Все имело смысл, потому что Google предоставлял нам таблицу результатов. (Я упрощаю, но вы понимаете.)
Теперь над этим слоем находятся ИИ-ассистенты. Они суммируют, цитируют и отвечают на вопросы до того, как происходит клик. Ваш контент может быть показан, перефразирован или проигнорирован, и ничего из этого не отображается в аналитике.
Это не делает SEO бесполезным. Это означает, что теперь параллельно ему существует новая форма видимости. В этой статье я покажу идеи, как измерить эту видимость без кода, специального доступа или разработчика, и как оставаться на почве того, что мы действительно знаем.
Почему это важно
Поисковые системы по-прежнему генерируют почти весь измеримый трафик. Только Google обрабатывает почти 4 миллиарда запросов в день. Для сравнения, общий годовой объем запросов Perplexity, по сообщениям, составляет около 10 миллиардов.
Так что да, ассистенты пока еще малы в сравнении. Но они формируют то, как интерпретируется информация. Вы уже можете это видеть, когда ChatGPT Search или Perplexity отвечают на вопрос и ссылаются на источники. Эти цитаты показывают, каким блокам контента (чункам) и доменам модели в настоящее время доверяют.
Проблема в том, что у маркетологов нет встроенной панели управления, чтобы показать, как часто это происходит. Google недавно добавил данные о производительности AI Mode в Search Console. Согласно документации Google, показы, клики и позиции в AI Mode теперь включены в общий тип поиска «Веб».
Это включение важно, но данные смешаны. На данный момент нет способа выделить трафик из AI Mode. Данные есть, но они влиты в общую кучу. Никакого процентного разделения. Никакого тренда. Пока еще нет.
Пока эта видимость не улучшится, я предлагаю использовать косвенный тест, чтобы понять, где ассистенты и поиск совпадают, а где расходятся.
Две системы получения информации, два способа быть найденным
Традиционные поисковые системы используют лексический поиск, где они напрямую сопоставляют слова и фразы. Доминирующий алгоритм, BM25, годами питает такие решения, как Elasticsearch и подобные системы. Он также используется в современных поисковых системах.
ИИ-ассистенты полагаются на семантический поиск. Вместо точных слов они отображают смысл через эмбеддинги — математические отпечатки текста. Это позволяет им находить концептуально связанные фрагменты, даже если точные слова различаются.
Каждая система допускает разные ошибки. Лексический поиск упускает синонимы. Семантический поиск может связывать несвязанные идеи. Но в сочетании они дают лучшие результаты.
Внутри большинства систем гибридного поиска два метода объединяются с помощью правила под названием Reciprocal Rank Fusion (RRF). Вам не нужно уметь его запускать, но понимание концепции поможет интерпретировать то, что вы будете измерять позже.
RRF на простом языке
Гибридный поиск объединяет несколько ранжированных списков в один сбалансированный список. Математика, стоящая за этим слиянием, — это RRF.
Формула проста: оценка равна единице, деленной на k плюс ранг. Это записывается как 1 ÷ (k + rank). Если элемент появляется в нескольких списках, вы складываете эти оценки вместе.
Здесь «rank» означает позицию элемента в этом списке, начиная с 1 как верхней. «k» — это константа, которая сглаживает разницу между элементами с высоким и средним рейтингом. Большинство систем обычно используют значение около 60, но каждая может настраивать его по-разному.
Стоит помнить, что векторная модель не ранжирует результаты путем подсчета совпадений слов. Она измеряет, насколько близко эмбеддинг каждого документа к эмбеддингу запроса в многомерном пространстве. Система затем сортирует эти оценки сходства от highest к lowest, фактически создавая ранжированный список. Это выглядит как ранжирование в поисковой системе, но движется математикой расстояний, а не частотой терминов.
Давайте сделаем это осязаемым с небольшими числами и двумя ранжированными списками. Один от BM25 (релевантность по ключевым словам) и один от векторной модели (семантическая релевантность). Мы будем использовать k = 10 для наглядности.
- Документ A занимает 1-е место в BM25 и 3-е место в векторном списке.
- Из BM25: 1 ÷ (10 + 1) = 1 ÷ 11 = 0.0909.
- Из векторного списка: 1 ÷ (10 + 3) = 1 ÷ 13 = 0.0769.
- Сложите их: 0.0909 + 0.0769 = 0.1678.
- Документ B занимает 2-е место в BM25 и 1-е место в векторном списке.
- Из BM25: 1 ÷ (10 + 2) = 1 ÷ 12 = 0.0833.
- Из векторного списка: 1 ÷ (10 + 1) = 1 ÷ 11 = 0.0909.
- Сложите их: 0.0833 + 0.0909 = 0.1742.
- Документ C занимает 3-е место в BM25 и 2-е место в векторном списке.
- Из BM25: 1 ÷ (10 + 3) = 1 ÷ 13 = 0.0769.
- Из векторного списка: 1 ÷ (10 + 2) = 1 ÷ 12 = 0.0833.
- Сложите их: 0.0769 + 0.0833 = 0.1602.
Документ B выигрывает здесь, так как занимает высокие места в обоих списках. Если вы увеличите k до 60, различия уменьшатся, создавая более плавное, менее «заточенное на верх» сочетание.
Этот пример — чистая иллюстрация. Каждая платформа настраивает параметры по-разному, и нет публичной документации, подтверждающей, какие значения k использует тот или иной движок. Рассматривайте это как аналогию того, как усредняются множественные сигналы.
Где живет эта математика на самом деле
Вам никогда не придется кодировать это самостоятельно, так как RRF уже является частью современных поисковых стеков. Вот примеры таких систем от их основных поставщиков. Если вы прочитаете все это, вы глубже поймете, как такие платформы, как Perplexity, делают то, что делают:
- Гибридное ранжирование Azure AI Search
- Обзор гибридного поиска Elastic
- Обучение гибридному поиску Vespa
- Руководство по гибридному поиску OpenSearch
Все они следуют одному и тому же базовому процессу: Поиск с BM25, поиск с векторами, оценка с RRF и слияние. Математика выше объясняет концепцию, а не буквальную формулу внутри каждого продукта.
Наблюдение за гибридным поиском в действии
Маркетологи не могут видеть эти внутренние списки, но мы можем наблюдать, как системы ведут себя на поверхности. Хитрость заключается в сравнении того, что ранжирует Google, с тем, что цитирует ассистент, а затем в измерении重叠, новизны и последовательности. Эта внешняя математика — эвристика, proxy для видимости. Это не та математика, которую платформы вычисляют внутренне.
Шаг 1. Сбор данных
- Выберите 10 запросов, которые важны для вашего бизнеса.
- Для каждого запроса:
- Запустите его в Поиске Google и скопируйте топ-10 органических URL.
- Запустите его в ассистенте, который показывает цитаты, например, Perplexity или ChatGPT Search, и скопируйте каждый упомянутый URL или домен.
Теперь у вас есть два списка на запрос: Google Топ-10 и Цитаты Ассистента.
(Имейте в виду, что не каждый ассистент показывает полные цитаты, и не каждый запрос их запускает. Некоторые ассистенты могут суммировать, не указывая источников вообще. Когда это происходит, пропустите этот запрос, так как его нельзя измерить таким способом.)
Шаг 2. Подсчет трех вещей
- Пересечение (I): сколько URL или доменов появляются в обоих списках.
- Новизна (N): сколько цитат ассистента не появляются в топ-10 Google.
- Если у ассистента шесть цитат и три пересекаются, N = 6 − 3 = 3.
- Частота (F): как часто каждый домен появляется across всех 10 запросов.
Шаг 3. Превращение подсчетов в быстрые метрики
Для каждого набора запросов:
- Коэффициент общей видимости (SVR) = I ÷ 10.
- Это измеряет, насколько топ-10 Google также представлено в цитатах ассистента.
- Коэффициент уникальной видимости ассистента (UAVR) = N ÷ общее количество цитат ассистента для этого запроса.
- Это показывает, сколько нового материала представляет ассистент.
- Количество повторяющихся цитат (RCC) = (сумма F для каждого домена) ÷ количество запросов.
- Это отражает, насколько последовательно цитируется домен в разных ответах.
Пример:
- Google топ-10 = 10 URL. Цитаты ассистента = 6. Три пересекаются.
- I = 3, N = 3, F (для example.com) = 4 (появляется в четырех ответах ассистента).
- SVR = 3 ÷ 10 = 0.30.
- UAVR = 3 ÷ 6 = 0.50.
- RCC = 4 ÷ 10 = 0.40.
Теперь у вас есть численный снимок того, насколько closely ассистенты отражают или отличаются от поиска.
Шаг 4. Интерпретация
Эти оценки ни в коем случае не являются отраслевыми ориентирами, а просто предлагаемыми отправными точками для вас. Не стесняйтесь корректировать по мере необходимости:
- Высокий SVR (> 0.6) означает, что ваш контент соответствует обеим системам. Лексическая и семантическая релевантность синхронизированы.
- Умеренный SVR (0.3 – 0.6) с высоким RCC предполагает, что ваши страницы пользуются семантическим доверием, но нуждаются в более четкой разметке или более сильном link-строительстве.
- Низкий SVR (< 0.3) с высоким UAVR показывает, что ассистенты доверяют другим источникам. Это часто сигнализирует о проблемах со структурой или ясностью.
- Высокий RCC для конкурентов указывает на то, что модель неоднократно цитирует их домены, поэтому стоит изучить их на предмет подсказок по схеме или дизайну контента.
Шаг 5. Действуйте
Если SVR низкий, улучшайте заголовки, ясность и crawlability. Если RCC низкий для вашего бренда, стандартизируйте поля авторов, schema и временные метки. Если UAVR высокий, отслеживайте эти новые домены, так как они, возможно, уже обладают семантическим доверием в вашей нише.
(Этот подход не всегда будет работать exactly как описано. Некоторые ассистенты ограничивают количество цитат или варьируют их в зависимости от региона. Результаты могут различаться в зависимости от географии и типа запроса. Относитесь к этому как к наблюдательному упражнению, а не как к жесткой framework.)
Эта математика дает маркетологам способ количественно оценить согласие и разногласие между двумя системами получения информации. Это диагностическая математика, а не математика ранжирования. Она не говорит вам, почему ассистент выбрал источник; она говорит вам, что он это сделал, и насколько последовательно.
Этот шаблон — видимый край невидимой гибридной логики, работающей за кулисами. Думайте об этом как о наблюдении за погодой, глядя на движение деревьев. Вы не моделируете атмосферу, а просто читаете ее эффекты.
Работа на странице, которая помогает гибридному поиску
Как только вы увидите, как играют overlap и новизна, следующий шаг — укрепление структуры и ясности.
- Пишите короткими блоками «утверждение-доказательство» по 200-300 слов.
- Используйте четкие заголовки, маркированные списки и стабильные anchors, чтобы BM25 мог найти точные термины.
- Добавляйте структурированные данные (FAQ, HowTo, Product, TechArticle), чтобы векторы и ассистенты понимали контекст.
- Сохраняйте канонические URL стабильными и timestamp обновления контента.
- Публикуйте канонические PDF-версии для тем с высоким уровнем доверия; ассистенты часто сначала цитируют фиксированные, проверяемые форматы.
Эти шаги поддерживают как краулеры, так и LLM, поскольку они разделяют язык структуры.
Отчетность и формулировка для руководства
Руководителям не так важны BM25 или эмбеддинги, как важны видимость и доверие.
Ваши новые метрики (SVR, UAVR и RCC) могут помочь перевести абстрактное в нечто измеримое: насколько ваше существующее SEO-присутствие переносится в обнаружение через ИИ и где вместо вас цитируют конкурентов.
Сопоставьте эти выводы с общими показателями производительности AI Mode в Search Console, но помните: вы не можете в настоящее время отделить данные AI Mode от обычных веб-кликов, поэтому относитесь к любой оценке, специфичной для ИИ, как к направляющей, а не окончательной. Также стоит отметить, что могут still быть региональные ограничения на доступность данных.
Эти ограничения не делают математику менее полезной. Они помогают сохранять ожидания реалистичными, давая вам конкретный способ говорить о видимости, управляемой ИИ, с руководством.
Подводя итоги
Разрыв между поиском и ассистентами — это не стена. Это скорее разница в сигналах. Поисковые системы ранжируют страницы после того, как ответ известен. Ассистенты извлекают фрагменты до того, как ответ существует.
Математика в этой статье — это идея, как наблюдать этот переход без инструментов разработчика. Это не математика платформы; это proxy маркетолога, который помогает сделать невидимое видимым.
В конце концов, основы остаются прежними. Вы по-прежнему оптимизируете для ясности, структуры и авторитетности.
Теперь вы можете измерить, как этот авторитет перемещается между системами ранжирования и системами получения информации, и делать это с реалистичными ожиданиями.
Эта видимость, подсчитанная и поставленная в контекст, — это то, как современное SEO остается привязанным к реальности.


Комментарии
Пока нет комментариев
Будьте первым, кто оставит комментарий!