Основы технической оптимизации сайта в 2017 году

Техническая оптимизация сайта является первым этапом подготовки к продвижению в поисковых системах. Проверка базовых параметров по представленному перечню работ и исправление найденных ошибок позволит в дальнейшем гораздо эффективнее использовать бюджет — в современных реалиях конкуренции техническая часть не должна вызывать нареканий.

Содержание

Дублирование страниц

Большое количество дублирующих страниц может вызвать проблемы с индексацией и, как следствие, ранжированием. При наличии двух и более одинаковых страниц произойдет размытие релевантности и страницы могут периодически менять друг друга в выдаче. В таком случае, с получением хороших позиций возникнут трудности.

Каждая страница должна быть доступна только по одному адресу, выбрать нужный вариант следует исходя из того, как уже проиндексированы страницы. Для других вариантов обращения должен быть указан атрибут canonical, либо реализован 301 редирект.

Основные типы дублей:

  • Основное зеркало — домен с www и без www;
  • Главная страница с index.html (или index.php) и без нее;
  • Страницы со слешем и без слеша на конце;
  • Страницы с GET параметрами;
  • Страницы по разным адресам в разных категориях.

Основное зеркало — домен с www и без www

Если основное зеркало еще не выбрано, то смотрим, как проиндексирован сайт – с www или без него, это и следует указывать далее.

С неосновного зеркала надо сделать 301 редирект на основное. Код размещается в файле .htaccess после следующих строк:

Options +FollowSymLinks
RewriteEngine On

Редирект с www на без www (здесь и далее заменив site.ru на свой домен):

RewriteCond %{HTTP_HOST} ^www.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

Редирект с домена без www на домен с www:

RewriteCond %{HTTP_HOST} ^site\.ru$ [NC]
RewriteRule ^(.*)$ http://www.site.ru/$1 [R=301,L]

Затем обязательно указываем основное зеркало в файле robots.txt, добавив директиву Host в конце файла с новой строки:

Host: site.ru

Или

Host: www.site.ru

Главная страница с index.html (или index.php) и без нее

Сначала следует убедиться, что данная проблема существует – во многих CMS редирект уже настроен. Если его нет и главная страница доступна по обоим вариантом обращения, то добавляем в файл .htaccess следующие строчки:

В случае index.php:

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/
RewriteRule ^index\.php$ http://site.ru/ [R=301,L]

В случае index.html:

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.html\ HTTP/
RewriteRule ^index\.html$ http://site.ru/ [R=301,L]

Страницы со слешем и без слеша на конце

Проблема также решается добавлением директив в файл .htaccess.

Редирект со страниц со слешем на страницы без слеша:

RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} ^(.+)/$
RewriteRule ^(.+)/$ http://site.ru/$1 [R=301,L]

Редирект со страниц без слеша на страницы со слешем:

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://site.ru/$1/ [L,R=301]

Страницы с GET параметрами

Страницы с передачей параметров часто являются дублями. Например, различные сортировки одних и тех же карточек товаров внутри страницы.

Варианты решения проблемы:

  • Указать canonical для всех страниц с параметрами;
  • Закрыть данные страницы от индексации в robots.txt директивой Disallow: /*?*.

Страницы по разным адресам в разных категориях

Наиболее характерно для магазинов — одна карточка товара доступна по разным адресам, соответствующим ее разным категориям.

Варианты решения проблемы:

  • Указать canonical для одинаковых страниц с разными адресами;
  • Переделать структуру сайта так, чтобы у любой страницы был только один адрес.

Как искать дубли

Сейчас на рынке представлено два оптимальных по стоимости инструмента — программа ComparseR (цена 2000 рублей за лицензию, в демо-версии доступна проверка до 150 страниц) и сервис SEOTO.ME (500 рублей за проверку одного сайта, но бесплатный функционал позволяет выделить основные проблемы).

Мусорные и технические страницы

Для поиска мусорных страниц ComparseR и SEOTO.ME также подойдут. Сканируем сайт, сортируем страницы по количеству слов на странице и смотрим те, на которых их подозрительно мало. Это либо технические страницы вроде страниц авторизации, регистрации, профилей пользователей, корзины, либо важные страницы без текста.

В первом случае закрываем их от индексации в robots.txt, во втором дорабатываем.

Составление файла robots.txt

Работа с файлом robots.txt является подведением итогов двух первых пунктов. Файл позволяет указать поисковым роботам на страницы, которые не следует индексировать. Корректный список директорий позволит избежать индексации дублей, мусорных и технических страниц.

При составлении следует учитывать особенности CMS и информацию, полученную выше.

Дубли мета тегов и заголовков

Следующий пункт, в котором нам помогут ComparseR и SEOTO.ME. Выше мы рассмотрели полные дубли страниц. Но одинаковые тайтлы, дескрипшны и заголовки H на разных страницах также являются проблемой. Сортируем полученный после сканирования результат по соответствующим колонкам и редактируем одинаковые теги.

Поиск ошибок сервера

И последний пункт, в котором нам пригодится результат сканирования сайта — сортируем страницы по ответам сервера. Если по каким-то адресам будут обнаружены ошибки, то разбираемся в причинах и исправляем.

Карта сайта

Карту сайта можно сделать двух форматов – sitemap.html и sitemap.xml.

Карта sitemap.html является обычной страницей со ссылками на все страницы сайта с категориями и подкатегориями и используется для упрощения навигации посетителей по сайту. Но лучше сделать структуру, при которой такая карта будет не нужна.

Карта sitemap.xml является файлом с информацией о страницах, которые должны быть проиндексированы поисковыми системами. В большинстве случаев для полной индексации достаточно переходов робота по внутренним ссылкам, но все же поисковые системы рекомендуют ее создавать.

Для создания можно воспользоваться внутренним функционалом CMS, если он присутствует, или сторонним сервисом, например, бесплатным http://www.cy-pr.com/.

Проверить валидность созданной карты можно на странице Sitemaptest.

Далее карту sitemap.xml следует добавить в кабинеты вебмастеров Яндекса и Google.

Оформление 404 ошибки

При переходе на несуществующие страницы посетитель не должен прекращать взаимодействие с сайтом. В некоторых случаях имеет смысл сделать перенаправление на главную страницу со страницы 404 ошибки, в других — грамотно оформить страницу. Сделать на ней строку поиска, навигационное меню, предложение популярных товаров или услуг и так далее. В любом случае посетитель не должен видеть пустую страницу.

Пример хорошего решения можно увидеть на сайте OZON.ru:

Страница 404 ошибки на сайте OZON.ru

Анализ скорости загрузки сайта

Скорость загрузки сайта является официально признанным критерием в алгоритмах ранжирования Google – «Более быстрые сайты удобнее для пользователей». Этот параметр также уменьшает количество отказов, особенно посетителей с низкой скоростью интернета (например, с мобильным интернетом). Оптимальное время загрузки — в пределах 5 секунд.

Google предоставляет свой инструмент для анализа скорости загрузки – PageSpeed Insights. Он полезен тем, что позволяет взглянуть на скорость сайта глазами поисковой системы.

Сервис PageSpeed Insights

PageSpeed Insights дает только основные рекомендации, для более глубокого анализа можно воспользоваться бесплатным сайтом GTmetrix. Он выдает обширный список рекомендаций, выполнение которых позволит значительно ускорить загрузку сайта.

При этом важно не воспринимать буквально результаты тестов инструмента от Google. В некоторых случаях функционал сайта может просто не позволить добиться «зеленых» результатов. Все что требуется – ускорить то, что можно ускорить без потери качества и функциональности сайта.

Оповещение о проблемах в Яндекс.Метрике

Также рекомендую включить оповещение о проблемах в настройках Яндекс.Метрики. Система очень оперативно реагирует на недоступность сайта и может сообщить об этом по телефону или на почту:

Уведомления о проблемах в Яндекс.Метрике

Далее мы рассмотрим следующий этап оптимизации сайта — аудит контента.

Один комментарий
  • COK

    Для карты сайты идеальный сервис — https://www.xml-sitemaps.com/

  • Комментировать

    Ваш e-mail не будет опубликован. Обязательные поля помечены *