Типичные ошибки СЕО: случаи из практики

Примечание: Этот текст может содержать некоторые партнерские ссылки, а это значит, что я зарабатываю небольшую комиссию без каких-либо дополнительных затрат с вашей стороны, если вы воспользуетесь этими ссылками. Спасибо за понимание и поддержку.

Ко мне регулярно обращаются с просьбой сделать Аудит СЕО внутренних параметров сайта. Точнее, даже не так.

Ко мне регулярно обращаются с вопросами помочь в продвижении сайта в поисковых системах, или с вопросами, почему сайт плохо посещается. На эти вопросы я сразу говорю, что для того, чтобы ответить на вопросы «почему», мне нужно провести Аудит СЕО параметров сайта, и тогда я смогу найти причины.

Какие основные ошибки СЕО на сайтах?

Чаще всего я сталкиваюсь с несколькими ошибками на сайтах, которые смело можно назвать типичными ошибками владельцев сайтов, которые пытаются самостоятельно настроить СЕО параметры.

Плагины СЕО

Чаще всего владельцы что-то слышали или знают о существовании плагинов СЕО для WordPress. Устанавливают их, настраивают, пользуются. Когда я захожу и начинаю проверять настройки, нахожу очень много НЕ настроенных параметров плагина, или настроенных не качественно.

Например, плагин WordPress SEO by YOAST. Замечательный плагин, даже в бесплатной версии позволяет выполнить все необходимые настройки СЕО параметров для главной и всех внутренних страниц и записей. Включая создание карты сайта для поисковых систем. Но, довольно часто его возможности владельцы используют не полностью. Я почти всегда встречал в паре с плагином SEO by YOAST плагины для создания карты сайта. Зачем? Потому что владелец не настроил этот параметр в плагине SEO by YOAST.

Также упускают важный параметр как добавление ключевой фразы в параметрах настройки страницы или записи. Ключевая фраза в настройках плагина помогает выполнить проверку контента и выявить слабые стороны текста, исправить его и добиться повышения СЕО параметров конкретной страницы или записи.

Постоянные ссылки

С этой проблемой сталкиваются многие владельцы сайта на WordPress.

На начальном этапе, когда только создается сайт, многие владельцы не обращают внимание на формат постоянных ссылок, не меняют его в самом начале и оставляют тот, который стоит по умолчанию, а именно: /?p=123

В дальнейшем, когда уже написано более ста записей и созданы все статичные страницы, вдруг приходит желание поменять постоянные ссылки, например, на такие: /sample-post/

Желание хорошее, но.

Смена URL'ов страниц сайта приводит к их выпаданию из индексной базы поисковых систем, и, соответственно, падению трафика через поисковые системы.

Правильная смена URL'ов требует дополнительных действий: установки редиректа для каждого старого URL на новый URL. Это можно сделать через файл .htaccess, можно сделать с помощью специального плагина WordPress, например, этого.

Но некоторые умудряются сделать еще хуже. Например, все старые URL закрыть к посещению через директиву disallow в файле robots.txt. Когда спрашиваешь, — зачем? — ответ выглядит очень беспомощно, например, так: «Я прочитал об этом на СЕО-форуме». Ахренеть! Очень авторитетно!

Ошибки 404

Проведение СЕО Аудита требует обязательного анализа показателей сайта в панели Яндекс.Вебмастер. Например, я открываю страницу Исключенные страницы и вижу, что на сайте — 384 ошибки 404 (страница не найдена):

404Просматриваю страницы и вижу много битых ссылок, а также другие типичные ошибки.

Ошибка 404 — это нормальный процесс. Когда таких страниц на сайте до десяти (из тысячи) — это нормально. Когда таких страниц — 384, а страниц в индексной поисковой базе всего 127 — как будет на такой сайт реагировать поисковая система? Однозначно, плохо. ПС будет понижать сайт (пессимизировать) в поисковой выдаче, так как посчитает своим механическим умом, что такой сайт — плохой сайт для людей, слишком много ошибок.

Название темы WordPress

Самая распространенная ошибка. Скачали бесплатную тему. Сделали ее активной. И пользуетесь. И вместо названия вашего сайта в файле стилей — название вашей темы.
Это хорошо видно через страницу исходного кода. Это вижу я, это видит поисковый робот. И он принимает ваш сайт за НЕ уникальный.

Ключевые слова и фразы (семантическое ядро)

Когда-то, в самом начале ведения своего сайта, владелец составил (сам или помогли) семантическое ядро ключевых слов и фраз для своего сайта. Составил, настроил, прикрепил к страницам и использует для записей.

Проходит год или больше. Некоторые слова и фразы перестали быть актуальными. Они уже не встречаются в статистике поисковой системы, но владелец упорно продолжает использовать ключевую фразу и удивляется, почему конкретная страница или запись не имеет трафика вообще?

Семантическое ядро необходимо пересматривать регулярно. Чем чаще — тем лучше.

Количество страниц в индексной поисковой базе

Решите загадку.

На сайте создано:

  • 10 статичных страниц
  • 200 записей
  • 5 рубрик
  • 20 меток (тегов)

Ни одна статичная Страница, ни одна Запись не закрыты тегом noindex.

Вопрос: сколько страниц сайта должно быть в поисковой индексной базе?

yandex-indexЧто это такое?

Это там, где написано: Страниц в поиске.

Это разница между Загружено роботом — Исключено роботом.

Однозначно ответить на мой вопрос сложно, так как не известны условия некоторых дополнительных параметров, но предположить можно следующее:

Каждая Запись и Страница (статичная) — это страница сайта со своим URL, а значит, принимается поисковыми системами как страница сайта. Итого — 210 страниц.

Каждая рубрика имеет свою страницу вывода Архива, плюс — постраничную навигацию. Значит, мы получим 5 + какое-то количество вторых, третьих и т.д. страниц, которые надо закрыть от индексации, так как все архивные страницы — это дубли основных страниц. То есть, все архивные страницы должны быть загружены роботом, но закрыты от индексации (исключены роботом).

Если главная страница выводит анонсы и имеет постраничную навигацию, все страницы (вторая, третья и т.д.) должны быть закрыты от индексации (см.выше).

Дубли страниц — это плохо, но не смертельно. Просто поисковая система не будет знать, какую страницу выдать в результатах поиска — основную (запись) или ее дубль (где анонс).

Страницы результатов поиска на вашем сайте — это тоже станицы-дубли.

Страницы с комментариями — это тоже страницы-дубли.

Если файлы изображений добавлены как страница вложения, а не как медиафайлы — это тоже страницы сайта, которые нужно закрыть от индексации.

Итак, мой ответ кроется именно в этих пояснениях.  Если владелец правильно закрыл все дубли от индексации и написал правильно правила для поисковых систем, у него останется открытыми всего лишь 210 страниц, которые должны быть в пункте первом — Страниц в поиске (см. скриншот выше).

Кстати, некоторые дотошные читатели увидят на скриншоте разницу между вычислением Загружено — Исключено и первой строкой. Расхождение — 9. Почему? Вот на этот вопрос вам лучше ответит Яндекс))))

Если материал вам понравился, нажмите или расскажите о нем друзьям!

Важно! Эта запись может содержать ссылки на плагины, которые к моменту вашего чтения и скачивания могут работать не корректно. Будьте внимательны.

2 Comments

Добавить комментарий

Ваш email нигде не будет показан. Обязательные поля помечены *