Поисковый трафик был и остается самым дешевым источником привлечения клиентов на сайт. В то же время, развитие поисковых систем и растущая конкуренция в любом сегменте рынка приводит к тому, что даже раскрученный и оптимизированный сайт со временем начинает терять трафик. Поэтому постоянно требуется мониторить и анализировать посещаемость сайта с разделением на источники трафика.
В случае, когда вы замечаете системную потерю трафика, которую нельзя объяснить:
Cкорее всего проблема заключается в плохом качестве контента.
Поисковые системы довольно часто занимаются переоценкой качества ресурсов в связи с введением новых алгоритмов, поэтому даже стабильно находящиеся в ТОПе выдачи ресурсы могут начать терять позиции.
В этом случае рекомендуется провести аудит содержимого сайта, причем, мера эта необходима как для молодых ресурсов, так и для давно работающих, на которых наметилась тенденция спада трафика с поисковых систем. При заказе любой услуги продвижения ваших сайтов специалистами digital-агентства «Экзитерра» обязательно проводится аудит качества сайта до начала работ и определения оптимального тарифного плана раскрутки ресурса.
К сожалению, аудит контента сайта — это не разовая процедура, особенно для крупных ресурсов, которые постоянно наполняются новыми материалами. Эти работы можно отнести к регламентным, которые требуется выполнять:
То есть, как бы хорошо не был оптимизирован контент при запуске сайта, ресурс может потерять из-за него свой авторитет по разным причинам.
Когда seo-специалисты выполняют аудит контента сайта клиента, проверяется достаточно много критериев, несоответствие которым рано или поздно может привести к потере трафика и позиций ресурса. Давайте посмотрим на общий чек-лист работ, которые требуется провести:
Это лишь ключевые этапы работ, о которых подробнее поговорим ниже, а сейчас несколько слов о том, какие инструменты нам понадобятся для работы и ее автоматизации.
Для аудита качества контента сайта используется достаточно много платных и бесплатных сервисов и программ. Мы остановимся на основных, без которых просто не обойтись. Итак, при выполнении проверки качества содержимого рекомендуем воспользоваться:
Это далеко не полный список инструментов, которые можно использовать при проведении аудита. Поэтому, если вы не имеете опыта работы с ними, а сайт начал терять трафик и прибыль, нужно найти и устранить проблему быстрее, например, обратившись в нашу компанию.
Все ошибки и недоработки можно условно разделить на две большие категории:
Приведем небольшие пояснения к работе с каждым критерием, который стоит проверять при аудите.
Здесь следует проверить корректность ответов сервера при доступности страницы (200), при переадресации (301) и при отсутствии страницы на сайте (404). При этом, обработку 404 кода ошибки следует организовать в виде страницы, где предлагается перейти в существующие разделы сайта, то есть, ее нужно оформить так, чтобы пользователь не покинул ресурс. При изменении адреса страницы обязательно следует настроить 301 редирект. Также следует явно указать главное зеркало сайта при вариантах использования имени с www и без него.
Наличия ссылок на несуществующие страницы сайта или другие ресурсы следует избегать. Ситуация может возникнуть, когда материал, например, удаляется. В этом случае по этому адресу нужно либо опубликовать новую статью, либо удалить ссылку из контента или навигации.
Для обнаружения таких ссылок можно использовать Яндекс.Вебмастер или, например, специализированные плагины и модули системы управления контентом, а также можно использовать те же инструменты (парсеры), о которых говорили выше.
Для оценки этого параметра можно использовать сервисы WebPageTest и Pingdom Website Speed Test, PageSpeed Insights. Для поисковых систем наиболее критичным параметром является время до получения первого байта, которое не должно превышать 300 мс. Если оно больше, нужно проводить техническую оптимизацию сайта или менять хостинг-провайдера.
Определить их наличие можно сервисами Яндекс.Вебмастер и Search Console, а также используя парсеры (бесплатные инструменты — Majento SiteAnalayzer, WildShark SEO Spider и Xenu. Платные — Screaming Frog, Netpeak Spider, ComparseR). Как правило, ситуация возникает при отображении одного материала в разных категориях с разными url. Следует исключать такую возможность использованием явной пометки канонической страницы. В противном случае поисковая система может проиндексировать не главную статью, а остальные пометить как дубль и исключить из выдачи.
Нужно оптимизировать файл robots.txt в соответствии с рекомендациями, как поисковых систем, так и используемой вами системы управления контентом. Здесь нужно закрыть от индексации дублирующиеся разделы, директорию админ-панели CMS, версии для печати.
Также нужно проверить на корректность robots.txt в инструментах вебмастера двух поисковых системах: анализ robots.txt в Яндекс.Вебмастер и инструмент проверки файла robots.txt в Search Console.
Наличие автоматически обновляемого файла sitemap.xml позволяет поисковым системам быстрее и полнее индексировать ваш контент, поэтому его наличие и валидность также обязательны. Проверить sitemap.xml в Яндекс.Вебмастер — инструмент Анализ файлов Sitemap, в Search Console — раздел «Сканирование» файлы sitemap.
Легко проверяется после экспорта сайта парсером и сортировки по тегам. Здесь нужно следить, чтобы у каждой страницы на сайте все метаданные были заполнены и уникальны.
Выявить проблемы с отображением сайта на мобильных устройствах поможет Mobile-Friendly Test Tool. Если эту проблему не исправить, следует ожидать снижения трафика из мобильного поиска.
По отсутствию ошибок и уникальности материала поисковые системы получают первое впечатление о его качестве. Для вновь размещаемых материалов желательно добиваться уровня уникальности выше 80-85% в зависимости от тематики и типа страницы (подробнее про уникальность контента мы писали в одной из прошлых статей). С орфографией все очевидно, ошибок допускать не следует.
Определить, какие страницы сайта Гугл и Яндекс исключили из выдачи можно в инструментах вебмастера этих поисковых систем. К сожалению, там нет указания конкретных ошибок, объясняющих, почему страница выпала из индекса, поэтому их придется устанавливать и исправлять самостоятельно.
Обычно так происходит, если на странице мало содержимого, оно неуникально или дублируется с другими страницами ресурса.
Здесь следует обратить внимание не только на соответствие описаний товаров или услуг техническим критериям качества. Контент таких страниц должен быть написан так, чтобы мотивировать читателя если не к сиюминутной покупке, то хотя бы к прочтению описания до конца и возврата на сайт, когда возникнет потребность купить. К тому же, это помогает улучшить поведенческие факторы ресурса.
Если на сайте есть блог, желательно передавать часть ссылочного веса на коммерческие страницы с информационного наполнения блога, а не наоборот.
Как видим, аудит контента сайта — объемная и непростая задача для человека, который не имеет в этой сфере опыта и определенных знаний. Впрочем, этому можно научиться, если есть достаточно свободного времени и желание освоить технологию. Если времени нет, а проект уже теряет трафик, гораздо разумнее обратиться к профессионалам, например, в нашу компанию «Экзитерра». Мы оперативно проведем аудит контента и предоставим подробные рекомендации по исправлению ситуации либо предложим другой вариант выгодного сотрудничества.
Ваш сайт может приносить больше клиентов. Мы знаем, как этого добиться. Закажите услугу «Создание потока заявок с SEO и оплатой за лиды» со скидкой 20% и платите только за результат.
Бесплатная консультация по продвижению вашего бизнеса или сайта.
Оставьте свой номер телефона и мы свяжемся с Вами в рабочее время.