Как я нашел возможности для внутренних ссылок с помощью векторных эмбеддингов

Иван Захаров делится опытом использования векторных эмбеддингов и Screaming Frog для поиска возможностей внутренних ссылок. Пошаговое руководство для SEO-специалистов.
Возможности внутренних ссылок с попомощью векторных эмбеддингов

Содержание

  • Что понадобится для работы
  • Шаг 1: Получение OpenAI API ключа
  • Шаг 2: Настройка и запуск Screaming Frog
  • Шаг 3: Экспорт векторных эмбеддингов и всех внутренних ссылок
  • Шаг 4: Очистка и форматирование данных
  • Шаг 5: Импорт подготовленного файла
  • Шаг 6: Построение внутренних ссылок
  • Заключение: создание связной структуры внутренних ссылок с помощью эмбеддингов
  • Шаблоны и ресурсы

Когда я впервые прочитал статью Майка Кинга о векторных эмбеддингах, честно говоря, меня это немного напугало. Концепции казались слишком сложными, а применение для SEO — запутанным. Но с новыми функциями Screaming Frog и отличным гайдом от Гаса Пелоджи я понял, что это мощный инструмент для построения внутренних ссылок.

Опираясь на эти материалы, я решил написать пошаговое руководство, которое поможет даже тем, кто никогда не работал с Python или векторными эмбеддингами. В этой статье я расскажу, как я использовал этот метод для поиска возможностей внутренних ссылок в большом масштабе, и как вы сможете применить его в своей SEO-стратегии.

Что понадобится для работы

Для всего процесса мне пригодились:

  • Screaming Frog
  • OpenAI API ключ
  • Google Sheets или Excel

В итоге у меня получилась таблица, в которой:

  • В колонке A — все важные URL сайта (целевые страницы);
  • Во второй колонке — страницы, которые ссылаются на эти URL (без навигационных ссылок);
  • Для каждой целевой страницы показаны 5 наиболее близких по смыслу страниц (по косинусному сходству);
  • Отмечены те страницы, которые должны ссылаться на целевой URL, но не делают этого.

Шаг 1: Получение OpenAI API ключа

Я зашел на сайт OpenAI, создал новый секретный ключ и скопировал его, чтобы использовать в Screaming Frog.

Шаг 2: Настройка и запуск Screaming Frog

Я загрузил готовый конфигурационный файл для Screaming Frog. После этого открыл вкладку API, выбрал OpenAI и вставил свой API ключ.

Затем переключился на «Prompt Configuration», выбрал «Extract embeddings from page content» и добавил скрипт из библиотеки. Это позволило Screaming Frog извлекать векторные данные для анализа.

Когда в разделе «Custom Extraction» появились числовые значения, я понял, что всё работает правильно.

Шаг 3: Экспорт эмбеддингов и всех внутренних ссылок

  • Сначала я сохранил результаты краулинга.
  • Экспортировал все внутренние ссылки (файл all_inlinks.csv).
  • Затем выгрузил результаты кастомного скрипта с эмбеддингами.

Шаг 4: Очистка и форматирование данных

Я воспользовался удобным скриптом на Google Colab от Бриттни Мюллер. Нужно просто загрузить два файла, и скрипт автоматически приведет всё в порядок.

Если возникали ошибки (например, пустая ячейка в колонке Embeddings), я вручную исправлял файл и запускал скрипт заново.

Шаг 5: Импорт подготовленного файла

Готовый файл я импортировал в Google Sheets. XLSX-версия удобнее, так как сохраняется условное форматирование.

Теперь в таблице для каждой целевой страницы отображались топ-5 релевантных страниц и отметка, есть ли ссылка на целевой URL.

Шаг 6: Построение внутренних ссылок

  1. Я искал розовые ячейки в таблице — они показывали, где ссылки отсутствуют.
  2. Открывал такие страницы и добавлял релевантные внутренние ссылки на целевые URL.
  3. Использовал осмысленный анкор-текст, связанный с содержанием.
  4. В первую очередь прорабатывал страницы с высоким трафиком.

Заключение: создание связной структуры

Благодаря этому процессу я смог превратить работу с внутренними ссылками в структурированную стратегию. Это не только улучшило SEO-результаты, но и помогло пользователям быстрее находить нужные страницы.

После применения метода на одном клиентском сайте я был удивлен: оказалось, что мы пропустили сотни возможностей. Векторные эмбеддинги помогли найти новые связи между страницами, устранить каннибализацию ключевых слов и улучшить общую архитектуру сайта.

Комментарии