SEO-продвижение включает в себя несколько основных этапов, базовым из которых является техническая оптимизация сайта. Мы подготовили подробный чек-лист, который позволит провести самостоятельный аудит и выявить ошибки на этом пути.
Техническая оптимизация представляет собой комплекс работ, которые позволяют улучшить взаимодействие сайта с роботами и алгоритмами поисковых систем. Игнорирование такого рода ошибок может значительно снизить эффективность от продвижения ресурса в целом.
Ошибки могут возникать по ряду причина, например, наиболее встречающиеся: особенности работы CMS, недостаточная компетенция специалистов, которые занимались разработкой сайта и т.д.
Чек-лист состоит из 25 пунктов, которые должны быть учтены при оптимизации сайта.
Начнем с проверки наличия и корректности заполнения файла robots.txt. Если вкратце, то это технический файл, в котором перечисляются директории сайта, доступные или закрытые для индексации поисковыми роботами. К слову, при посещении ресурса краулером, данный файл проверяется им в первую очередь.
Наличие файла можно проверить вручную, добавив в URL-адрес сайта следующую конструкцию:
«/robots.txt»
Либо с помощью панелей вебмастеров от Google или Яндекса.
Что следует закрывать от индексации:
Robots.txt
Файл sitemap.xml содержит в себе структуру сайта в виде URL-адресов страниц, его наличие является обязательным для больших проектов. В идеале реализовать карту сайта таким образом, чтобы она обновлялась автоматически средствами CMS.
Требования к файлу карты сайта:
Редиректы (301 – постоянный, 302 – временный) показывают краулеру путь, по которому перемещена текущая страница. Однако бывают ситуации, когда цепочка редиректов не несет в себе смысла, что приводит к излишнему расходу краулингового бюджета.
Краулинговый бюджет – некий лимит количества страниц, который поисковый робот проиндексирует за определенный временной период. При его нецелесообразном расходовании могут возникнуть проблемы с индексацией целевых страниц.
Проверить редиректы на сайте можно с помощью специализированного софта, например, Screaming Frog SEO Spider.
Зеркала – это копии сайта (содержат в себе одинаковый контент) доступные по разным адресам. При наличии данной проблемы, поисковики объединяют подобные ресурсы в группы, но при этом в выдаче участвует только главное зеркало, все остальные исключаются.
Для того чтобы определить, является ли сайт зеркалом какого-либо ресурса, следует добавить его в панель Яндекс.Вебмастера. Если адрес не является главным зеркалом, то в этом случае в панели высветится об этом уведомление.
Добавление сайта в Яндекс.Вебмастер
Битой считается такая ссылка, которая ведет на несуществующую страницу. Переходя по ней, система уведомляет об ошибке.
Переход по битой ссылке
Битые ссылки могут появляться в процессе редактирования сайта: удаления/переезда страниц, опечатка при создании Url-адреса и т.д. Чем сложнее сайт, тем, как правило, чаще появляются подобные ссылки.
Наличие битых ссылок усложняет процесс продвижения сайта тем, что при их большом количестве алгоритмы могут посчитать ресурс низкокачественным. К тому же, подобное явление ухудшает пользовательский опыт, негативно влияя на поведенческие факторы (например, растет процент отказов), которые напрямую влияют на ранжирование сайта.
Проверить наличие битых ссылок можно в панели Яндекс.Вебмастер: «Индексирование» – «Статистика обхода». Также можно просканировать сайт программой Screaming Frog SEO Spider.
Дубликаты страниц – идентичные по содержанию документы, но находящиеся по разным URL-адресам внутри сайта. При этом одинаковые страницы, которые находятся на региональных поддоменах не являются дублями.
Почему с дублями страниц необходимо бороться:
Чтобы найти страницы-дубли, перейдите в Вебмастер: Индексирование – Страницы в поиске – Исключенные страницы.
Открываем отчет "Страницы в поиске"
Далее нажмите на значок фильтра, установив значение «Удалено: дубль».
Скорость загрузки сайта может напрямую влиять на качество индексации краулерами, ранжирование в органической выдаче и на количество конверсий. Если говорить о конкретных цифрах, то в идеале страница должна загружаться не более 2-4 секунд. Все значения, что выше, могут вести к появлению следующих проблем:
Для проверки скорости загрузки сайта можно воспользоваться бесплатным инструментом от Google. Кроме оценки, он покажет иерархию загрузки элементов страницы, с помощью чего можно определить наиболее тяжеловесные объекты и в дальнейшем оптимизировать их.
Проверка скорости загрузки сайта
Одним из ключевых этапов создания и продвижения сайта является создание его структуры. Она определяет иерархию страниц ресурса, их принадлежность к категориям, каталогам или папкам.
Структура бывает:
Вот основные рекомендации от Яндекса касательно создания правильной структуры сайта:
Посмотреть структуру сайта можно с помощью программы Screaming Frog SEO Spider.
Screaming Frog SEO Spider
Человеко-понятные URL-адреса представляют собой формат ссылок документов, который отображает содержимое страницы. Исходя из самого термина, подобные ссылки понятны пользователям. Большинство современных CMS поддерживают данный инструмент из коробки.
Преимущества ЧПУ:
Проверить URL-адреса сайта также позволит программа Screaming Frog SEO Spider.
Внутренняя перелинковка частично относится к структуре сайта, но в этом пункте речь пойдет о самих ссылках. Правильно выстроенная внутренняя перелинковка документов позволяет:
Чтобы определить, какие страницы имеют наибольший авторитет в текущей структуре сайта, его можно просканировать в Screaming Frog SEO Spider.
Этот параметр касается исключительно структуры URL-адреса. Уровень вложенности URL – количество слешей в адресе страницы и данный термин применим исключительно к ЧПУ.
Основное, на что рекомендуется обратить внимание при построении URL-адресов, это на отображение в них структуры сайта. К слову, в Яндексе есть такое понятие, как навигационная цепочка – ссылки на разделы ресурса, к которым относится текущая страница.
Чтобы в сниппете отобразить навигационную цепочку (это может положительно сказаться на CTR), потребуется соблюсти некоторые правила оптимизации, одним из ключевых является соответствие дерева разделов сайта структуре URL-адреса страницы.
SSL – защищенный протокол, обеспечивающий шифрование передаваемых данных между сервером и браузером пользователя. Установленный SSL-сертификат позволяет защитить следующие типы данных:
При отсутствии SSL-сертификата в браузере пользователя будет выводиться соответствующее предупреждение, что подрывает доверие к сайту. К слову, поисковики (особенно Google) относят наличие защищенного соединения к важнейшим факторам ранжирования.
Проверить наличие SSL-сертификата можно в сервисе 2ip.ru.
Если сайт имеет большое количество страниц и на нем ведутся постоянные работы по наполнению, часто возникают ситуации, при которых появляются битые ссылки. Перейдя по такому адресу, в ряде случаев пользователи покидают сайт. Чтобы этого избежать, помимо постоянно мониторинга и устранения битых ссылок, можно грамотно оформить страницу 404-ошибки:
Основная задача 404-страницы – сделать так, чтобы пользователь остался на сайте.
Страница 404
Код ответа сервера – трехзначное число, которое отдается сервером при обращении пользователя к сайту. Те страницы, которые должны быть проиндексированы, должны отдавать код 200. Также часто встречаются 3XX-редиректы, которые перенаправляют пользователя или поисковый краулер на другой адрес. При этом проверять коды ответов следует у всех типов страниц сайта.
Чтобы узнать коды ответов можно воспользоваться одним из парсеров (например, Screaming Frog SEO Spider), либо посетив панель Вебмастера: «Индексирование» – «Статистика обхода».
Сайты написаны на языке разметки HTML, которая включает в себя ряд правил и спецификаций (HTML5). Соблюдение валидности верстки может давать следующие преимущества:
На практике большинство современных браузеров способны корректно отображать сайты с невалидной версткой. Но в идеале, конечно же, проверять страницы ресурса в специальном валидаторе.
Учитывая тот факт, что мобильный трафик во многих сферах начинает обгонять десктопный, поисковики обращают внимание на адаптивность сайта для всех типов устройств. Поэтому, чтобы участвовать в мобильной выдаче ресурс должен корректно отображаться на всех разрешениях экранов. Интересно то, что Яндекс имеет общую поисковую выдачу (для мобильных и десктопных устройств), а Google разделяет ее. Т.е., если у сайта нет мобильной версии, то в Google это повлияет лишь на ранжирование в соответствующей выдаче, а у Яндекса в целом пессимизирует ресурс.
Чтобы проверить адаптивность страниц, рекомендуется использовать бесплатный инструмент от Google.
Как помним из пункта про дубликаты, в силу разных обстоятельств они могут появляться у документов, что негативно сказывается на SEO-показателях сайта. Поэтому существуют следующие варианты указания канонических страниц:
указываем ссылку на каноническую страницу с помощью специального тега:
.
Страницы пагинации являются дубликатами, особенно это актуально для алгоритмов Яндекса. Вариантов оптимизации подобных страниц несколько:
Это обширная тема, но выделим основные ее пункты, которые относятся к технической оптимизации:
Используйте качественные изображения, релевантные опубликованному контенту на странице. Графика в первую очередь влияет на поведенческие и социальные факторы. Но не забывайте про оптимизацию веса картинок.
При разработке сайта закладывайте возможность прописывать уникальные alt и title у картинок.
Также по возможности стоит использовать уникальные изображения, поисковики подобное ц