Технический SEO-аудит сайта

Это 2ой этап работы над продвижением сайта.
Получить полную картину работ по Оптимизации сайта поможет эта статья.
Технический аудит в первую очередь направлен на то, чтобы наши будущие работы по контенту были видны для поисковых систем. Ваш главный «враг» — CMS сайта. Многие системы для администрирования сайтов не заточены под SEO, да и студии в абсолютном большинстве знают про Оптимизацию очень мало (но это и не их работа).

В этой статье расскажу куда смотреть и что искать при техническом SEO-аудите сайта.

Технический аудит

Количество страниц сайта в базе Яндекс и Google

Если страниц больше нуля, значит Поисковая система видит сайт. Это уже плюс.
Как проверить?
А. Использовать данные вебмастеров
Б. Использовать оператор поиска
Пример: если ввести в поисковую строку запрос «site:https://colapsar.ru» (без ковычек), то увидим что сейчас в индексе находится примерно 3000 страниц — Яндекс и 2960 — Google.
yandex-site-pages
google-site-pages

Файл robots. txt

• Файл должен существовать
• В нем надо разделить блоки для разных поисковых систем. Я обычно делю их на 2 или 3 части: для Яндекса, Google и для всех остальных
• Закрыть от индексации все ненужные страницы. Важно знать, что в Индекс попадают даже страницы с разными метками. Поэтому я по умолчанию добавляю в этот файл операторы:
Disallow: /*?_openstat=
Disallow: /*?gclid=
Disallow: /*?utm_source=
Disallow: /*from=adwords
О том как создавать и редактировать файл можно почитать на Яндекс.Помощь
Хороший пример реализации файла — www.ozon.ru/robots.txt

Карта сайта (страница)

Это страница со ссылками на все нужные страницы сайта. Она позволяет поисковому роботу за один раз проиндексировать весь сайт. Такая страница страхует функционал файла sitemap. xml от непредвиденных ошибок.
Пример реализации — corpshark.ru/map

Карта сайта (sitemap.xml)

Файл с адресами страниц, которые надо проиндексировать. Обязателен к использованию.
О том как создавать и редактировать файл можно почитать на Яндекс.Помощь

Ответ сервера

Для существующих и нужных страниц, сервер сайта должен отдавать код ответа 200.
Типичный пример такой ошибки — Страница 404 отдает код ответа 200 вместо кода ответа 404. Это значит, что Поисковая система считает эту страницу существующей и добавляет в Индекс. Обилие мусора в Индексе приведет к общему снижению позиций всех страниц сайта.
Как проверить ответ сервера? Используйте любой бесплатный сервис, например:
webmaster.yandex.ru/tools/server-response
bertal.ru

Редиректы

Наличие большое количества редиректов на сайте - это крайне опасная штука. Поисковые системы не любят редиректы. Использовать желательно только 301 редирект

HTTP и HTTPS

Если сайт доступен по двум протоколам, то в индексе будет находиться полная копия сайта. Это создаст дополнительную конкуренцию, что нам категорически не нужно. Вывод: сайт должен быть доступен только по одному протоколу. Это упростит вам жизнь и позволит поисковым системам выкинуть дублирующие себя страницы из индекса. В современных реалиях лучше использовать HTTPS. Особенно это важно для Ecommerce проектов, банков, МФО и других сайтов, связанных с финансовыми операциями.
Например браузер Google Chrome уже указывает пользователю сайты, работающие на HTTPS, как надежные.
надежный сайтВ конце концов разработчики браузера планируют перейти к маркировке HTTP-сайтов, как ненадежных. Это может негативно сказаться на доверии пользователей и уровне конверсии.
not-secure

Псевдостатические адреса страниц (ЧПУ)

Запомните постулат: динамическая адресация страниц на сайте — это ЗЛО. Такая адресация препятствует правильной индексации сайта, поскольку в индексе образуется большое количество страниц-дублей, связанных с тем, что параметры могут переставляться или менять свой состав. Поисковые машины умеют различать динамические и статические URL’ы и определенным образом ограничивают число индексируемых страниц сайта с динамическими адресами. Никаких знаков вопроса, решеток и другого мусора не должно быть в адресах важных нам страниц

Абсолютная адресация ссылок

В коде сайта ссылки должны иметь полные адреса, включающие в себя домен сайта. В некоторых CMS это не предусмотрено и домен сайта обрезан. Поисковая система за вас о вашем сайте не подумает;)

Страницы-дубли

На сайте по разным причинам могут находиться страницы, которые имеют разные адреса, но полностью совпадающий контент. Это например страницы: site.ru и www.site.ru. Такие страницы надо выжигать каленым железом

Внешние исходящие ссылки

Корректное оформление внешних исходящих ссылок — важный момент сохранения ссылочного веса сайта. Если закрыть их от поисковых систем, то ссылочный вес не должен перетекать на сторонние сайты. Конечно все зависит от стратегии продвижения. Но в большинстве случаев внешние ссылки рекомендуется закрывать тегами.
<a href="link" rel="nofollow">Text</a> - для Google
<noindex>link</noindex> - для Яндекса
Если ваш сайт сделан на Wordpress, то есть специальный плагин WP No External Links

Неуникальные тексты

Взял текст с чужого сайта — будь уверен, что твой сайт будет на низких позициях в выдаче (при прочих равных условиях). Это правильно лучше не нарушать, особенно молодым сайтам.
Как проверить текст на уникальность? Использовать сервисы:
www.etxt.ru/antiplagiat
text.ru

Дублирующиеся тексты

Возьмите за правило: Один текст = одна страница. Не стоит размещать один и тот же текст, на разных страницах своего сайта

Переоптимизированные тексты

Были в моей практике и такие ситуации, когда каждое 10е слово в тексте было ключевым. Поисковые системы давно научились распознавать и жестко карать за такие вещи. Просто помните об этом

«Битые» ссылки

Ссылки, ведущие внутри вашего сайта на страницы, которых уже не существует, называются «битыми», то есть не работающими. Чем меньше таких ссылок, тем лучше.
Как проверить? Например здесь: validator.w3.org/checklink

Внутренняя перелинковка

Для улучшения связанности страниц между собой используют этот инструмент. Особенно полезен и релевантен он в блогах, когда одна публикация ссылается на другие публикации на этом же сайте

Оптимизация HTML-кода страниц

Тут ошибки просто найти, но бывает сложно исправить.
Пользуйтесь инструментом от Google: developers.google.com/speed/pagespeed/insights

Сжатие изображений

Чем меньше изображения, тем быстрее они загружаются, тем быстрее работает сайт. Скорость работы сайта важна не только для бизнеса и юзабилити, но и для поисковых систем.
Какие изображения и как сжать? Расскажет developers.google.com/speed/pagespeed/insights

Вы держитесь здесь! Хорошего вам настроения и здоровья!

Другие статьи из цикла «Оптимизация сайта для новичков»:
1. SEO для новичков
2. Технический SEO-аудит сайта (эта статья)
3. Как собрать семантическое ядро для сайта
4. Контентный аудит
5. Юзабилити аудит (не опубликована)
6. Увеличение ссылочной массы сайта
7. Оценка результатов оптимизации (не опубликована)