Техническая оптимизация сайта в 2018 году

Техническая оптимизация сайта — первый этап подготовки к продвижению в поисковых системах. Проверка базовых параметров по чек-листу и исправление найденных ошибок позволит в дальнейшем гораздо эффективнее использовать бюджет — в современных реалиях конкуренции техническая часть SEO не должна вызывать нареканий.

Содержание

Дублирование страниц

Большое количество дублирующих страниц может вызвать проблемы с индексацией и, как следствие, ранжированием. При наличии двух и более одинаковых страниц произойдет размытие релевантности и страницы могут периодически менять друг друга в выдаче. В таком случае, с получением хороших позиций возникнут трудности.

Каждая страница должна быть доступна только по одному адресу, выбрать нужный вариант следует исходя из того, как уже проиндексированы страницы. Для других вариантов обращения должен быть указан атрибут canonical, либо реализован 301 редирект.

Типы дублей:

  • Основное зеркало — домен с www и без www;
  • Главная страница с index.html (или index.php) и без нее;
  • Страницы со слешем и без слеша на конце;
  • Страницы с GET параметрами;
  • Одинаковые страницы по разным адресам в разных категориях.

Основное зеркало — домен с www и без www

Если зеркало еще не выбрано, то смотрим, как проиндексирован сайт – с www или без него и указать этот вариант далее.

С неосновного зеркала надо сделать 301 редирект на основное. Код размещается в файле .htaccess после следующих строк:

Options +FollowSymLinks
RewriteEngine On

Редирект с www на без www (здесь и далее заменив site.ru на свой домен):

RewriteCond %{HTTP_HOST} ^www.site\.ru$ [NC]
RewriteRule ^(.*)$ http://site.ru/$1 [R=301,L]

Редирект с домена без www на домен с www:

RewriteCond %{HTTP_HOST} ^site\.ru$ [NC]
RewriteRule ^(.*)$ http://www.site.ru/$1 [R=301,L]

Затем обязательно указываем основное зеркало в файле robots.txt, добавив директиву Host в конце файла с новой строки:

Host: site.ru

Или

Host: www.site.ru

Для сайтов на защищенном протоколе:

Host: https://site.ru

Главная страница с index.html (или index.php) и без нее

Сначала следует убедиться, что проблема существует – во многих CMS редирект уже настроен. Если нет и главная страница доступна по обоим вариантом обращения, то добавляем в файл .htaccess следующие строчки:

В случае index.php:

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/
RewriteRule ^index\.php$ http://site.ru/ [R=301,L]

В случае index.html:

RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.html\ HTTP/
RewriteRule ^index\.html$ http://site.ru/ [R=301,L]

Страницы со слешем и без слеша на конце

Проблема также решается добавлением директив в файл .htaccess.

Редирект со страниц со слешем на страницы без слеша:

RewriteCond %{REQUEST_FILENAME} !-d
RewriteCond %{REQUEST_URI} ^(.+)/$
RewriteRule ^(.+)/$ http://site.ru/$1 [R=301,L]

Редирект со страниц без слеша на страницы со слешем:

RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_URI} !\..{1,10}$
RewriteCond %{REQUEST_URI} !(.*)/$
RewriteRule ^(.*)$ http://site.ru/$1/ [L,R=301]

Страницы с GET параметрами

Страницы с передачей параметров часто являются дублями. Например, сортировки одних и тех же карточек товаров внутри страницы.

Варианты решения проблемы:

  • Прописать rel canonical для всех страниц с параметрами;
  • Закрыть страницы от индексации в robots.txt директивой Disallow: /*?*.

Страницы по разным адресам в разных категориях

Характерно для магазинов со свойствами карточек товаров.

Варианты решения проблемы:

  • Прописать rel canonical;
  • Переделать структуру сайта так, чтобы у страницы был только один адрес.

Как искать дубли

Рекомендую Netpeak Spider с бесплатным периодом использования 14 дней, которого хватит владельцам одного или нескольких сайтов найти дубли.

Мусорные и технические страницы

Для поиска мусорных страниц ComparseR и SEOTO.ME также подойдут. Сканируем сайт, сортируем страницы по количеству слов на странице и смотрим те, на которых их подозрительно мало. Это либо технические страницы вроде страниц авторизации, регистрации, профилей пользователей, корзины, либо важные страницы без текста.

В первом случае закрываем от индексации в robots.txt, во втором дорабатываем.

Составление файла robots.txt

Работа с файлом robots.txt является подведением итогов двух первых пунктов. Файл позволяет указать поисковым роботам на страницы, которые не следует индексировать. Корректный список директорий позволит избежать индексации дублей, мусорных и технических страниц.

При составлении следует учитывать особенности CMS и информацию, полученную выше.

Дубли мета тегов и заголовков

В поиске снова поможет Netpeak Spider. Выше мы рассмотрели полные дубли страниц. Но одинаковые тайтлы, дескрипшны и заголовки H на разных страницах также являются проблемой. Сортируем полученный после сканирования результат по соответствующим колонкам и редактируем одинаковые теги.

Поиск ошибок сервера

И последний пункт, в котором пригодится результат сканирования сайта — сортируем страницы по ответам сервера. Если будут обнаружены ошибки — разбираемся в причинах и исправляем.

Карта сайта

Карту сайта можно сделать двух форматов – sitemap.html и sitemap.xml.

Карта sitemap.html — обычная страница со ссылками на все страницы сайта с категориями и подкатегориями и используется для упрощения навигации посетителей по сайту. Но лучше сделать структуру, при которой такая карта будет не нужна.

Карта sitemap.xml — файл с информацией о страницах, которые должны быть проиндексированы поисковыми системами. В большинстве случаев для полной индексации достаточно переходов робота по внутренним ссылкам, но поисковые системы рекомендуют ее создавать.

Нет используемых роботом файлов Sitemap

Для создания можно воспользоваться внутренним функционалом CMS, если он присутствует, или сторонним сервисом, например, бесплатным http://www.cy-pr.com/.

Проверить валидность созданной карты можно в сервисе Яндекса Sitemaptest.

Далее карту sitemap.xml следует добавить в кабинеты вебмастеров Яндекса и Google.

Оформление 404 ошибки

При переходе на несуществующие страницы посетитель не должен прекращать взаимодействие с сайтом. В некоторых случаях имеет смысл сделать перенаправление на главную страницу со страницы 404 ошибки, в других — грамотно оформить страницу. Сделать строку поиска, навигационное меню, предложение популярных товаров или услуг и так далее.

Пример хорошего решения на сайте OZON.ru:

Страница 404 ошибки на сайте OZON.ru

Анализ скорости загрузки сайта

Скорость загрузки сайта — официально признанный критерий в алгоритмах ранжирования Google – «Более быстрые сайты удобнее для пользователей». Этот параметр также уменьшает количество отказов, особенно посетителей с низкой скоростью интернета (например, с мобильным интернетом). Оптимальное время загрузки — в пределах 5 секунд.

10 шагов для снижения показателя отказов на сайте.

Google предоставляет инструмент для анализа скорости загрузки – PageSpeed Insights. Он полезен тем, что позволяет взглянуть на скорость сайта глазами поисковой системы.

Сервис PageSpeed Insights

PageSpeed Insights дает только основные рекомендации, для глубокого анализа рекомендую бесплатный сервис GTmetrix. Он выдает обширный список рекомендаций, выполнение которых позволит значительно ускорить загрузку сайта.

При этом важно не воспринимать буквально результаты тестов инструмента от Google. Функционал сайта может просто не позволить добиться 100% результатов. Требуется ускорить то, что можно ускорить без потери качества и функциональности сайта.

Оповещение о проблемах в Яндекс Метрике

Также рекомендую включить оповещение о проблемах в настройках Яндекс Метрики. Система оперативно реагирует на недоступность сайта и сообщает об этом по телефону или на почту:

Уведомления о проблемах в Яндекс.Метрике

Далее рассмотрим следующий этап оптимизации сайта — аудит контента.

Один комментарий
  • COK

    Для карты сайты идеальный сервис — https://www.xml-sitemaps.com/

  • Комментировать

    Ваш e-mail не будет опубликован. Обязательные поля помечены *