11 уроков, извлеченных из аудита более 500 веб-сайтов

После аудита сотен веб-сайтов наиболее частые или существенные проблемы не являются сложными техническими проблемами SEO. Читайте дальше и узнайте, что действительно работает.

11 уроков, извлеченных из аудита более 500 веб-сайтов

Проведя более 500 углубленных аудитов веб-сайтов за последние 12 лет, я заметил четкие закономерности относительно того, что работает, а что нет в SEO.

Я видел почти все, что может пойти не так и правильно с веб-сайтами разных типов.

Чтобы помочь вам избежать дорогостоящих ошибок SEO, я поделюсь 11 практическими уроками из таких важнейших областей SEO, как техническое SEO , внутреннее SEO , контент-стратегия , инструменты и процессы SEO, а также внешнее SEO .

Мне потребовалось более десятилетия, чтобы открыть все эти уроки. Прочитав этот пост, вы сможете применить эти идеи, чтобы сэкономить себе и своим клиентам SEO время, деньги и разочарование — менее чем за час.

Урок №1: Техническое SEO — основа вашего успеха в SEO

  • Урок: Любую работу по SEO всегда следует начинать с технических основ; от того, насколько легко сканировать и индексировать ваш сайт, зависят, смогут ли поисковые системы вообще его увидеть.

Техническое SEO гарантирует, что поисковые системы смогут сканировать, индексировать и полностью понимать ваш контент. Если поисковые системы не могут получить доступ к вашему сайту, никакой объем качественного контента или обратных ссылок не поможет.

Проведя аудит более 500 веб-сайтов, я пришел к выводу, что техническая SEO является наиболее важным аспектом SEO, который сводится к двум фундаментальным концепциям:

  • Удобство сканирования : могут ли поисковые системы легко находить страницы вашего сайта и перемещаться по ним?
  • Индексируемость: могут ли ваши страницы отображаться в результатах поиска после сканирования?

Если ваши страницы не пройдут эти два теста, они даже не будут участвовать в SEO-игре, и ваши усилия по SEO не будут иметь значения.

Я настоятельно рекомендую регулярно следить за техническим состоянием вашей SEO-страницы, используя как минимум два основных инструмента: Google Search Console и Bing Webmaster Tools.

Начиная любой SEO-аудит, всегда задавайте себе два важных вопроса:

  • Могут ли Google, Bing или другие поисковые системы сканировать и индексировать мои важные страницы?
  • Разрешаю ли я поисковым роботам сканировать только нужные страницы?

Этот шаг сам по себе может избавить вас от огромной головной боли и гарантировать отсутствие серьезных технических проблем с SEO.

Урок №2: SEO на JavaScript может легко пойти не так

  • Урок: будьте осторожны, когда слишком сильно полагаетесь на JavaScript. Он может легко помешать Google увидеть и индексировать критический контент.JavaScript обеспечивает большую интерактивность, но поисковые системы (даже такие умные, как Google) часто испытывают трудности с его надежной обработкой.

Google обрабатывает JavaScript в три этапа (сканирование, рендеринг и индексирование) с помощью браузера Chromium. Однако задержки рендеринга (от минут до недель) и ограниченные ресурсы могут помешать индексированию важного контента.

Я провел аудит многих сайтов, SEO которых давало сбои, поскольку ключевой контент, загруженный с помощью JavaScript, не был виден Google .

Как правило, в исходном HTML-коде отсутствовал важный контент, он не загружался должным образом во время рендеринга или между необработанным HTML-кодом и рендеринговым HTML-кодом наблюдались значительные различия в контенте или метаэлементах.

Всегда следует проверять, может ли Google видеть ваш контент на основе JavaScript:

  • Используйте Live URL Test в Google Search Console и проверьте отображаемый HTML.
  • Или найдите в Google уникальное предложение из вашего контента JavaScript (в кавычках). Если ваш контент не отображается, Google, вероятно, не может его проиндексировать.

Вот несколько рекомендаций по поисковой оптимизации JavaScript:

  • Критический контент в HTML: Вы должны включить заголовки, описания и важный контент непосредственно в исходный HTML, чтобы поисковые системы могли немедленно его проиндексировать. Вы должны помнить, что Google не прокручивает и не нажимает.
  • Рендеринг на стороне сервера (SSR): Вам следует рассмотреть возможность внедрения SSR для обслуживания полностью отрендеренного HTML. Это более надежно и менее ресурсоемко для поисковых систем.
  • Правильная настройка robots.txt: веб-сайты должны блокировать важные файлы JavaScript, необходимые для рендеринга, поскольку это препятствует индексации.
  • Используйте сканируемые URL-адреса: вы должны убедиться, что каждая страница имеет уникальный сканируемый URL-адрес. Вы также должны избегать фрагментов URL-адресов (#section) для важного контента; они часто не индексируются.

Урок №3: Краулинговый бюджет имеет значение, но только если ваш сайт огромен

  • Урок: беспокоиться о бюджете сканирования следует только в том случае, если на вашем сайте сотни тысяч или миллионы страниц.

Бюджет сканирования относится к тому, сколько страниц поисковая система, такая как Google, сканирует на вашем сайте в течение определенного периода времени. Он определяется двумя основными факторами:

  1. Ограничение пропускной способности сканирования: это не позволяет роботу Googlebot перегружать ваш сервер слишком большим количеством одновременных запросов.
  2. Спрос на сканирование: он зависит от популярности вашего сайта и частоты изменения контента.

Независимо от того, что вы слышите или читаете в Интернете, большинству веб-сайтов вообще не нужно беспокоиться о бюджете сканирования. Google обычно эффективно справляется со сканированием небольших веб-сайтов.

Но для крупных веб-сайтов, особенно с миллионами URL-адресов или ежедневно меняющимся контентом, бюджет сканирования становится критически важным (что подтверждает Google в своей документации по бюджету сканирования ).

В этом случае вам необходимо убедиться, что Google расставляет приоритеты и часто сканирует важные страницы, не тратя ресурсы на страницы, которые никогда не следует сканировать или индексировать.

Вы можете проверить состояние бюджета сканирования с помощью отчета по индексированию Google Search Console. Обратите внимание на:

Просканировано – В данный момент не проиндексировано: обычно это указывает на проблемы с индексацией, а не на бюджет сканирования.
Обнаружено – в настоящее время не индексировано: обычно это свидетельствует о проблемах с бюджетом сканирования.

Вам также следует регулярно просматривать отчет Crawl Stats в Google Search Console, чтобы узнать, сколько страниц Google сканирует в день. Сравнение просканированных страниц с общим количеством страниц на вашем сайте поможет вам обнаружить неэффективность.

Хотя эти быстрые проверки в GSC, естественно, не заменят анализ файла логов, они дадут быструю информацию о возможных проблемах с бюджетом сканирования и могут указать на необходимость проведения детального анализа лог-файлов.

Это подводит нас к следующему пункту.

Урок №4: Анализ лог-файлов позволяет увидеть полную картину

  • Урок: Анализ лог-файлов обязателен для многих веб-сайтов. Он раскрывает детали, которые вы не можете увидеть иным образом, и помогает диагностировать проблемы со сканируемостью и индексируемостью, которые влияют на ранжирование вашего сайта.

Файлы логов отслеживают каждое посещение поисковых ботов, таких как Googlebot или Bingbot. Они показывают, какие страницы сканируются, как часто и что делают боты. Эти данные позволяют вам выявлять проблемы и решать, как их исправить.

Например, на сайте электронной коммерции вы можете обнаружить, что Googlebot сканирует страницы продуктов, добавляет товары в корзину и удаляет их, тратя ваш бюджет сканирования на бесполезные действия.

Используя эту информацию, вы можете заблокировать URL-адреса, связанные с корзиной, с помощью параметров для экономии ресурсов, чтобы робот Googlebot мог сканировать и индексировать ценные, индексируемые канонические URL-адреса.

Вот как можно использовать анализ файла логов:

  • Начните с доступа к журналам доступа к вашему серверу, в которых регистрируется активность ботов.
  • Посмотрите, какие страницы чаще всего посещают боты, как часто они посещают их и не застревают ли они на URL-адресах с низкой ценностью.
  • Вам не нужно анализировать журналы вручную. Такие инструменты, как Screaming Frog Log File Analyzer, позволяют легко и быстро выявлять закономерности.
  • Если вы заметили проблемы, например, постоянное сканирование URL-адресов с параметрами ботами, вы можете легко обновить файл robots.txt, чтобы заблокировать эти ненужные сканирования.

Получить файлы логов не всегда просто, особенно для крупных корпоративных сайтов, где доступ к серверу может быть ограничен.

В этом случае вы можете воспользоваться вышеупомянутой статистикой сканирования Google Search Console, которая предоставляет ценную информацию о сканирующей активности Googlebot, включая просканированные страницы, частоту сканирования и время отклика.

Хотя файлы логов предоставляют наиболее подробную информацию о взаимодействии с поисковыми системами, даже быстрая проверка статистики сканирования поможет вам обнаружить проблемы, которые вы могли бы пропустить.

Урок №5: Core Web Vitals переоценен. Перестаньте зацикливаться на них

  • Урок: Вам следует меньше концентрироваться на основных веб-показателях . Они редко создают или разрушают результаты SEO.

Основные показатели веб-показателей измеряют скорость загрузки, интерактивность и визуальную стабильность, но они не влияют на SEO так существенно, как многие предполагают. Проведя аудит более 500 веб-сайтов, я редко видел, чтобы только Core Web Vitals значительно улучшал рейтинги.

Большинство сайтов видят ощутимые улучшения только в том случае, если время их загрузки крайне низкое (более 30 секунд) или если в Google Search Console отмечены критические проблемы (где все отмечено красным).

Я видел, как клиенты тратили десятки тысяч, даже сотни тысяч рублей, стремясь к идеальным показателям Core Web Vitals, при этом упуская из виду фундаментальные основы SEO, такие как качество контента или стратегия ключевых слов.

Перенаправление этих ресурсов на улучшение контента и фундаментальных SEO-улучшений обычно дает гораздо лучшие результаты.

При оценке основных веб-показателей следует сосредоточиться исключительно на реальных данных из Google Search Console (а не на лабораторных данных в Google PageSpeed ​​Insights) и учитывать географическое положение пользователей и типичную скорость интернета.

Если ваши пользователи живут в городских районах с надежным высокоскоростным интернетом, Core Web Vitals не сильно на них повлияет. Но если это сельские пользователи с более медленным подключением или старыми устройствами, скорость сайта и визуальная стабильность становятся критически важными.

Суть в том, что вы всегда должны основывать свое решение об оптимизации Core Web Vitals на потребностях вашей конкретной аудитории и реальных данных пользователей, а не только на тенденциях отрасли.

Урок № 6: Используйте схему (структурированные данные), чтобы помочь Google понять вас и доверять вам

  • Урок: вам следует использовать структурированные данные (Schema.org), чтобы сообщить Google, кто вы, чем занимаетесь и почему ваш сайт заслуживает доверия и видимости.

Разметка схемы (или структурированные данные) явно определяет значение вашего контента, что помогает Google легко понять основную тему и контекст ваших страниц.

Определенные типы схем, такие как разметка расширенных результатов, позволяют вашим листингам отображать дополнительные сведения, такие как рейтинги, информацию о событиях или цены на продукты. Эти «расширенные фрагменты» могут привлечь внимание в результатах поиска и увеличить показатели кликабельности.

Вы можете думать о схеме как об информативных метках для Google. Вы можете маркировать почти все – продукты, статьи, обзоры, события – чтобы четко объяснить отношения и контекст. Эта ясность помогает поисковым системам понять, почему ваш контент релевантен для данного запроса.

Всегда следует выбирать правильный тип схемы (например, «Статья» для сообщений в блоге или «Продукт» для страниц электронной коммерции), правильно реализовывать ее с помощью JSON-LD и тщательно тестировать ее с помощью инструмента Google Rich Results Test или Structured Data Testing Tool.

Schema позволяет оптимизировать SEO «за кулисами», не влияя на то, что видит ваша аудитория.

Хотя клиенты SEO часто сомневаются в целесообразности изменения видимого контента, они обычно чувствуют себя комфортно, добавляя структурированные данные, поскольку они невидимы для посетителей веб-сайта.

Урок №7: Исследование ключевых слов и картирование — это все

  • Урок: Техническое SEO вводит вас в игру, контролируя, что поисковые системы могут сканировать и индексировать. Но следующий шаг — исследование ключевых слов и сопоставление — сообщает им, о чем ваш сайт и как его ранжировать.

Слишком часто веб-сайты гоняются за последними трюками SEO или нацеливаются на широкие, конкурентные ключевые слова без какого-либо стратегического планирования. Они пропускают надлежащее исследование ключевых слов и редко инвестируют в сопоставление ключевых слов , а оба эти шага являются важными для долгосрочного успеха SEO:

  • Исследование ключевых слов позволяет определить точные слова и фразы, которые ваша аудитория фактически использует для поиска.
  • Сопоставление ключевых слов позволяет сопоставить исследуемые термины с конкретными страницами и задать каждой странице четкую, конкретную цель.

На каждом веб-сайте должна быть электронная таблица со списком всех индексируемых канонических URL-адресов.

Рядом с каждым URL-адресом должно быть указано основное ключевое слово, на которое ориентирована страница, а также несколько связанных с ним синонимов или вариаций.

Без этой структуры вам придется гадать и надеяться, что ваши страницы будут ранжироваться по терминам, которые могут даже не соответствовать вашему контенту.

Четкая карта ключевых слов гарантирует, что каждая страница будет иметь определенную роль, что сделает всю вашу SEO-стратегию более эффективной.

Это не пустая работа, это основа надежной стратегии SEO.

Урок №8: On-Page SEO обеспечивает 80% успеха

  • Урок: Из моего опыта аудита сотен веб-сайтов, on-page SEO обеспечивает около 80% результатов SEO. Тем не менее, только 1 из 20 или 30 сайтов, которые я проверял, сделали это хорошо. Большинство ошибаются с самого начала.

Многие веб-сайты сразу бросаются к построению ссылок, генерируя сотни или даже тысячи некачественных обратных ссылок с точно совпадающими анкорными текстами, еще до того, как заложить основу для SEO.

Они пропускают необходимое исследование ключевых слов, упускают из виду сопоставление ключевых слов и не оптимизируют свои ключевые страницы в первую очередь.

Я видел это снова и снова: погоня за передовыми или блестящими тактиками и игнорирование основ, которые действительно работают.

Если у вас прочная техническая SEO-основа, сосредоточение внимания на поисковой оптимизации на странице часто может дать значительные результаты.

Существуют тысячи статей о базовом SEO на странице: оптимизации заголовков и контента с учетом целевых ключевых слов.

Однако почти никто не применяет все эти основы правильно. Вместо того, чтобы гоняться за модными или сложными тактиками, вам следует сосредоточиться сначала на основах:

  • Проведите тщательное исследование ключевых слов, чтобы определить термины, которые на самом деле ищет ваша аудитория.
  • Четко сопоставьте эти ключевые слова с конкретными страницами.
  • Оптимизируйте соответствующим образом теги заголовков, метаописания, заголовки, изображения, внутренние ссылки и контент каждой страницы.

Этих простых шагов часто достаточно для достижения успеха в SEO, однако многие упускают их из виду в поисках сложных кратчайших путей.

Урок №9: Внутренние ссылки — это недооцененная, но мощная возможность SEO

  • Урок: Внутренние ссылки обладают большей силой, чем разрекламированные внешние обратные ссылки, и могут значительно прояснить структуру вашего сайта для Google.

Внутренние ссылки гораздо более эффективны, чем думают большинство владельцев веб-сайтов.

Все говорят об обратных ссылках с внешних сайтов, но внутренние ссылки — если они сделаны правильно — на самом деле могут оказать огромное влияние.

Если ваш сайт не совсем новый, улучшение внутренних ссылок может существенно повысить эффективность SEO, помогая Google четко понимать тему и контекст вашего сайта и его конкретных страниц.

Тем не менее, многие веб-сайты не используют внутренние ссылки эффективно. Они в значительной степени полагаются на общие анкорные тексты, такие как «Читать далее» или «Узнать больше», которые не говорят поисковым системам абсолютно ничего о содержании связанной страницы.

Владельцы веб-сайтов часто обращаются ко мне, убежденные в необходимости проведения глубокого технического аудита.

Однако при более внимательном рассмотрении оказывается, что их настоящая проблема часто заключается в плохой внутренней перелинковке или неясной структуре веб-сайта, что затрудняет понимание Google содержания и ценности сайта.

Внутренние ссылки также могут дать толчок неэффективным страницам.

Например, если у вас есть страница с сильными внешними обратными ссылками, внутренняя ссылка с этой страницы с высоким авторитетом на страницы с более слабым авторитетом может повысить авторитет и помочь этим страницам повысить свой рейтинг.

Инвестирование небольшого дополнительного времени в улучшение внутренних ссылок всегда стоит того. Это один из самых простых, но мощных инструментов SEO, которые у вас есть.

Урок №10: Обратные ссылки — это всего лишь один из рычагов SEO, а не единственный

  • Урок: Никогда не следует слепо гоняться за обратными ссылками, чтобы исправить SEO. Стройте их стратегически только после освоения основ.

SEO-аудиты часто показывают, что веб-сайты уделяют слишком много внимания обратным ссылкам, пренебрегая многими другими важными возможностями SEO.

Распространенной и дорогостоящей ошибкой является слепое создание обратных ссылок без предварительного изучения основ SEO, таких как устранение технических препятствий SEO, проведение тщательного исследования ключевых слов и сопоставление четких ключевых слов с каждой страницей.

Даже после того, как вы разобрались с основами, построение ссылок ни в коем случае не должно быть случайным или реактивным.

Слишком часто я вижу, как сайты начинают наращивать обратные ссылки просто потому, что их SEO не развивается, надеясь, что больше ссылок волшебным образом помогут. Это редко срабатывает.

Вместо этого вы всегда должны подходить к построению ссылок стратегически, сначала тщательно проанализировав ваших прямых конкурентов в SERP, чтобы определить, действительно ли обратные ссылки являются вашим недостающим элементом:

  • Внимательно посмотрите на страницы, которые опережают ваш рейтинг.
  • Определите, действительно ли их преимущество обусловлено обратными ссылками или лучшей внутренней оптимизацией, качеством контента или внутренними ссылками.

Только убедившись, что внутренняя SEO-оптимизация и внутренние ссылки эффективны, а обратные ссылки действительно являются дифференцирующим фактором, следует инвестировать в целевое наращивание ссылок.

Обычно вам не нужны сотни некачественных обратных ссылок. Часто всего несколько стратегических редакционных ссылок или хорошо составленных SEO-пресс-релизов могут закрыть пробел и улучшить ваши рейтинги.

Урок №11: Инструменты SEO сами по себе не могут заменить ручные проверки SEO

  • Урок: Никогда не доверяйте SEO-инструментам слепо. Всегда перепроверяйте их результаты вручную, используя собственное суждение и здравый смысл.

Инструменты SEO делают нашу работу быстрее, проще и эффективнее, но они все равно не могут в полной мере воспроизвести человеческий анализ или понимание.

Инструментам не хватает способности понимать контекст и стратегию так, как это делают специалисты по SEO. Обычно они не могут «связать точки» или оценить реальную значимость определенных результатов.

Именно поэтому каждая рекомендация, предоставляемая инструментом, нуждается в ручной проверке. Вы всегда должны самостоятельно оценивать серьезность и реальное влияние проблемы.

Часто владельцы веб-сайтов обращаются ко мне с тревогой из-за «фатальных» ошибок, обнаруженных их SEO-инструментами.

Однако когда я вручную проверяю эти проблемы, большинство из них оказываются незначительными или несущественными.

Между тем, фундаментальные аспекты SEO, такие как стратегический таргетинг ключевых слов или оптимизация на странице, полностью отсутствуют, поскольку ни один инструмент не может полностью охватить эти нюансы.

Инструменты SEO по-прежнему невероятно полезны, поскольку они выполняют масштабные проверки, которые не под силу человеку, например, анализируют миллионы URL-адресов одновременно.

Однако вам всегда следует внимательно интерпретировать их выводы и вручную проверять их важность и фактическое воздействие, прежде чем предпринимать какие-либо действия.

Заключительные мысли

Проведя аудит сотен веб-сайтов, я пришел к выводу, что основная тенденция заключается не в сложных технических проблемах SEO, хотя они и имеют значение.

Вместо этого наиболее частой и существенной проблемой является просто отсутствие четкой, приоритетной стратегии SEO.

Слишком часто SEO осуществляется без прочной основы или четкого направления, что делает все остальные усилия менее эффективными.

Другая распространенная проблема — недиагностированные технические проблемы, оставшиеся от старых миграций или обновлений сайта. Эти скрытые проблемы могут тихо вредить рейтингам в течение многих лет, если их не решать.

Уроки выше охватывают большинство проблем, с которыми я сталкиваюсь ежедневно, но помните: каждый веб-сайт уникален. Не существует универсального контрольного списка.

Каждый аудит должен быть персонализирован и учитывать конкретный контекст сайта, аудиторию, цели и ограничения.

Инструменты SEO и ИИ становятся все более полезными, но они все еще остаются всего лишь инструментами. В конечном счете, ваше собственное человеческое суждение, опыт и здравый смысл остаются наиболее важными факторами эффективного SEO.

Комментарии