Как быстро сделать технический аудит сайта, который улучшит его позиции

В этой статье приведено пошаговое руководство по техническому аудиту любого сайта. Приведены базовые объяснения того, почему важен тот или иной пункт.

Цель написания этой статьи – дать вам исчерпывающий список основных технических контрольных точек для вашего сайта.

Обычно, основой любого анализа сайта есть определенный чек-лист основных технических факторов, которые влияют на позиции ресурса в поисковой выдаче. Хотя вы заметите, как часто придется отходить от этого списка и рассматривать конкретную проблему более подробно.

Ниже список всего того, что нужно учесть в формате списка, пункты расположены в произвольном порядке и последовательность  имеет минимальное значение.

Чек-лист по техническому аудиту

  1. Google Search Console
  • Structured Data Errors
  • Языковые и региональные версии
  • Mobile Usability
  • Индексация
  • Пессимизация сайта
  • Ошибки сканирования
  • Статистика сканирования
  • Файлы Sitemap
  1. Контент сайта
  • Meta Tags & H1s
  • HTTPS / HTTP Дубликаты
  • Коды ответов
  • ALTы изображений
  • Дублирование контента
  • Canonical Tags
  1. On-Site оптимизация
  • txt
  • Исходный код страницы
  • Внутренние ссылки
  • URL структура
  • Хлебные крошки и навигация

 

  1. Индексация
  • Проверка индексации
  • Выдача по бренднейму
  • Статус индексации
  • Дубли страниц

 

  1. Скорость загрузки сайта
  • Определение загрузки сайта
  • Определение скорости отдельных элементов

«SEO-инструментарий»: все, что нужно для технического аудита

Для базового анализа сайта достаточно использовать 7 инструментов. Некоторые из них платные. Если планируете проводить миниаудиты постоянно, покупка уже за 2-3 самостоятельных аудита оправдает себя.

Google Search Console

Доступ к данным Google Search Console вашего сайта вы получите после подтвердите своего права собственности на ресурс несколькими предложными способами сервиса:

Далее рассмотрим все основные пункты, на которые обращаем особое внимание проводя технические аудит сайта

1.1. Ошибки структурирования данных

Чаще это называют Schema или микроданные. Это специальный вид разметки страниц для увеличения кликабельности объявлений сайта в поисковой выдаче (сниппет)

Данная разметка универсальная для всех поисковых систем и поэтому, проверив корректность ее работы в Google Search Console можно быть уверенным, что все отлично в результатах поиска Bing, Yandex и Yahoo!

Все действия по данному вопросу помогают сформировать reach-фрагменты к примеру:

Звездочки рейтинга

Об организации

Быстро ссылки

В Search Console есть раздел посвященный структурированным данным и ошибкам по ним:

Тут можно увидеть список того что работает некорректно или не используется.

1.2 Таргетинг – языковые и региональные версии

Если ваш сайт работает в несколько стран или имеет на разных языках версии, то необходимо удостовериться, что Google знает об этом.

Сделать это просто: с помощью hreflang тегов на страницах для разных стран и языков. Вы помогаете поисковой системе тем, что сами определяет страницы, которые релевантные пользователям с конкретного региона или использующим  определенный язык, а Google взамен – выше ранжирует ваш сайт.

Пример реализации:

1.3 Удобство использования с мобильных устройств

Сейчас есть уже отдельные ниши и объемные рынки, где доля мобильного трафика больше нежели количество посещений с персональных компьютеров. Это значительно увеличивает значимость оптимизации под мобильные устройства.

Также сейчас Google при ранжировании учитывает как один из факторов повышающие позиции – адаптивность сайта под мобильные устройства.

В Google Search Console можно оценить состояние предлагает некоторые большие проблемы основополагающие принципы юзабилити, показывая вам, какие именно страницы имеют проблемы, так что вы можете идентифицировать проблему сразу.

Отличный инструмент от Google для проверки Mobile Friendly (при этом простейший в использовании) – Mobile Friendly Test

Сервис определяет проблемы с мобильной версией сайта и выводит реультаты теста, которые могут стать инструкцией для внедрения.

Единственный недостаток – текст делается для конкретного URL, но проблемы на сайте обычно типичные.

1.4 Индексация

Для этого в Google Search Console есть отдельный раздел «Индекс Google».

Просто проходитесь по каждому разделу и анализируете:

  • Статус индексирования – количество проиндексированных страниц и их динамика
    Страницы не вылетают с индекса? Все страницы проиндексировались?
  • Заблокированные ресурсы – динамика недоступных для робота Goоgle ресурсы вашего сайта
    Не зашкаливает ли график? В чем проблемы с ресурсами?
  • Удалить URL-адреса – инструмент для корректировки временной количества страниц в индексе
    Есть ли страницы, которые временно не должны быть в индексе?

Также воспользуйтесь вкладкой «Расширенные данные» в подразделе «Статус индексирования» для определения корректности работы robots.txt и того количества страниц, которые он блокирует.

Последние несколько месяцев в USA регионе глючит Google в частности индексации сайта. Если вы наблюдаете постоянные проблемы с индексацией и у вас не очень большой проект, поможет вариант в консоли СКАНИРОВАНИЕ-ПОСМОТРЕТЬ КАК GOOGLEBOT. Добавляйте сюда ваши новые страницы на индексацию. Вариант с sitemap в этом случае особо не помагает.

1.5 Пессимизация сайта

Одной из самых важных разделов, для этого в Google Search Console есть раздел «Поисковый трафик» – «Меры, принятые вручную». Можно сколько угодно устранять технические ошибки на сайте, но если поисковая система пессимизировала сайт, все ваши усилия впустую!

Поэтому внимательно относитесь ко всем уведомлением на почту с Search Console и отслеживаете состояние этого раздела.

Желаем всегда видеть ))) :

1.6 Ошибки сканирования

В Google Search Console есть целый раздел посвященный сканированию сайта поисковыми роботами – «Сканирование».

В поисковой консоли вы можете:

  • Ошибках сканирования
  • Статистике сканирования
  • Посмотреть на сайт как Googlebot
  • Проверить файл robots.txt
  • Загрузить и проанализировать файлы sitemap
  • Получить данные о параметрах URL

Рекомендуем начать с анализа статистики сканирования устранения по ней ошибок, а далее завершить – устранением ошибок URL.

Обращайте внимание на данные не только для ПК, но и рассмотрите данные для смартфонов.

Этот раздел имеет такую важность из-за того, что тут можно просмотреть как ваш сайт видит Google и понять частично причину проблем с поисковой выдачей.

1.7 Статистика сканирования

В подразделе «Статистика сканирования» Googlebot предоставляет отчет о своей деятельности в течение последних 90 дней в сканировании вашего сайта.

Часто этот раздел пропускают при техническом аудите, но именно он может помочь идентифицировать первые проблемы с сайтом после какого-то из технических обновлений.

Основной фокус – “Количество сканированных страниц в день», убедитесь, что резкие скачки отсутствуют на диаграмме.

Если вы намерены более глубоко уйти в анализ сканирования опуститесь ниже на этой странице и оцените вес страниц и время их загрузки.

1.8 Файлы Sitemap

  1. Убедитесь есть ли у вас sitemap и загружен ли он в Search Console
  2. Нажмите на касную кнопку в правом верхнем углу «Тест» и протестируйте их
  3. Проверьте соотношение отправленных и проиндексированных страниц

Все ли страницы зашли в индекс? Сколько еще не проиндексировано и почему? Возможно какие-то внутренние директивы препятствуют этому?

Контент сайта


Нелогично в техническом аудите анализировать сам контент. Анализ контента делается на этапе seo аудита, но вот анализ мета-данных важен. Разберем более детально ниже.

2.1 Мета-данные & H1

Мета-данные – фактор влияющий на позиции сайта в поисковых системах, т.к. с помощью их вы также показываете поисковым системам соответствие вашей страницы конкретным запросам пользователям.

Идеальный инструмент для анализа – Screaming Frog

Анализируем:

  • Title – до 70 символов
  • Description – 150-160 символов
  • Н1 – без ограничений, но вы всегда должны сделать их короткими и информативными.

Для всех мета-данных смотрим:

  • Уникальность
  • Полноту (смысловую)
  • Присутствие ключей в них

2.2 HTTPS / HTTP Дублирование

Когда вы запустили сканирование сайта через Screaming Frog, в отчете будет указано сколько URL сидят на HTTP и HTTPS и, как следствие, можно идентифицировать дубликаты на каждой из версий.

Если проблем нет, то теперь нужно оценить необходимость перехода на HTTPS-сертификат. Для некоторых сайтов (например, ecommerce) это обязательно, т.к. поисковые системы за защиту персональных данных пользователей сайтов.

2.3 Коды ответов

Также в отчете Screaming Frog сканирования есть раздел по кодам ответов и тут не все является проблемами. Рассмотрим все коды ошибок.

3xx – все что тут можно увидеть это 2 кода – 301 и 302 коды. Нет ничего плохого в 301 редиректе, но вам нужно проверить, что не существует ли циклических редиректов. Правило – только 1 редирект. 302 код – только для временной переадресации. Так что если это постоянное изменение, делайте код 301.

4xx – 400, 403 и 404 являются наиболее распространенные коды, которые вы найдете в этом разделе; каждый из них должен быть тщательно исследован.

Например: 404 – страница не найдена (удалена и не перенаправляет).

5xx – 500 коды наиболее распространенные ошибки сервера, которые вы увидите в этом разделе. Это внутренняя ошибка сервера. Данная ошибка больше на стороне сервера сайта и нужно с администратором сервера вашего сайта решить эту проблему.

2.4 ALT изображений

ALT изображения является тегом, по которому поисковые системы идентифицирует и ранжирует изображение на сайте. Не правильно считать, что это единственный фактор, но дублирование данного тега приводит к неуникальности контента страницы и сводит к минимуму полезность присутствия изображений на сайте.

Поиск по картинкам популярный среди пользователь. Например, поисковая выдача по запросу «дизайн стульев»: сразу после платных блоков и локального бока идет выдача картинок.

Поэтому ALT изображения должен быть:

  • Уникальным
  • Информативным и содержать данные о том что изображено на картинке
  • Соответствующим пользовательским запросам

2.5 Дублирование контента

Для того, чтобы избежать фильтра Google Panda, вы должны убедиться, что у вас достаточное количество контента на всех страницах и он не дублируется на разных страницах. Так как все это подчеркивает качество контента, которые должно участвовать в поисковой выдаче.

2.6 Канонические Теги

Rel = Canonical – это теги, которые помогают избежать дублирования контента. Вы должны указывать канонические теги на страницах сайта на что-либо, что потенциально будет считаться дублированием. Например, страницы, которые имеют “/” на конце и страницы без него.

Все канонические теги покажет отчет Screaming Frog. Вам необходимо выяснить все ли они были выполнены правильно.

Также вы можете найти большое руководство о том, как использовать канонический тег в блоге Moz.

On-Site оптимизация

3.1 Robots.txt

У каждого сайта должен быть robots.txt. Он сообщает роботам поисковых систем что нужно индексировать, а что нет. Как правило, его размещают на странице e-motion.com.ua/robots.txt

Если у вас уже есть файл Robots.txt, то необходимо убедиться, что он запрещает только правильные URL к индексации. По существу, работает он также, как NoIndex тег, но есть возможность запретить поисковым системам сканировать множество страниц одновременно, например:

Disallow: / blog / *

Как следствие Google не будет индексировать все страницы которые находятся в блоге сайта.

3.2 Исходный код страницы

Для данного раздела анализа все таки необходимо иметь предварительное понимание и возможность разобраться в исходном коде страницы. Поэтому наилучшим способом решить подобные проблемы есть автоматические сервисы тестирования кода на его чистоту и оптимизацию.

Отличный инструмент – PageSpeed Insights

Просто загружаете (к примеру) главную страницы и просматриваете все что можно улучшить как для ПК так и для мобильных устройств.

Конечно, есть проще способ – просто просмотреть исходный код страницы и таким образом попробовать обнаружить ошибку. Но все же с помощью сервиса это эффективнее.

Наиболее распространенная ошибка – перегруженный код страницы, а это увеличивает время сканирования содержимого страницы роботом Google. Не проиндексированная страница = бесполезная страница для поиска.

3.3 Внутренние ссылки

  • Какое количество внутренних ссылок на сайте?
  • Содержит ли меню все главные страницы сайта?
  • Правильно ли распределяется вес между страницами?
  • На все страницы сайта можно попасть по внутренней навигации?
  • Нет ли «битых» ссылок?

В логической структуре сайта самая важная страница (теоретически – главная) имеет самое большое количество ссылающейся страниц сайта. По остальным страницам – количество идет на убывание.

Ссылки на сайте также могут повлиять на позиции сайта, выбрав  для них правильные анкоры и страницы. Их влияние часто сходно с внешними ссылками на ресурс.

Посмотреть количество ссылок можно как в Screaming Frog, так и в Google Search Console:

3.4 Структура URL

  • Главные страницы близко к основной папке (домену)?
  • Какой уровень вложения основных посадочных страниц?
  • Нет ли дополнительных символов в URL?
  • Можно ли понять по URL где находится пользователь?

На эти вопросы необходимо найти ответ при анализе структуры URL сайта. Вам необходимо выяснить находится ли каждая страница в под подходящей категории. А также URL-адреса содержат ключевые слова или нет.

Можно также вернуться в Google Search Console и пересмотреть параметры URL:

3.5 Иерархическая навигация, хлебные крошки

Иерархическая навигация – это вторичная навигационная схема, которая помогает пользователю перемещаться по сайту и вернуться к нужным страницам в несколько переходов.

Breadcrumbs – это часть schema-разметки, которую мы упоминали ранее. С помощью этой опции вы помогаете пользователю в навигации по сайту, а также увеличиваете свои позиции в результатах поиска.

Пример:

Индексация

4.1 Проверка индексации сайта

Эту информацию можно посмотреть в Google Search Console, но есть еще один верный и обязательный для проверки метод.

Наиболее простой способ проверки количества страниц в индексе Google:

  • Заходите в поисковик Google
  • В поисковую строку вводите

site:example.com

Меняя example.com на домен вашего сайта.

Итог: поисковая система показывает список всех страниц, которые проиндексированы (включая субдомены).

Вы получили тот результат, который ожидали? Большая разница с реальным количеством страниц?

4.2 Выдача в поиске по названию вашего бренда

Ваш сайт можно найти просто забив в поиск его название без www? Просто возьмите и проверим прямо сейчас!

Нахождение сайта на первой позиции в поиске по его названию – это один из признаков “доверия” к сайту со стороны поисковой системы. Так почему пользователи должны делать покупки у вас на сайте или верить в достоверность информации на нем, если даже Google его не знает?

Если вы не ранжируетесь по бренднейму, то найти причину поможет:

  • Проанализировать сайты которые находятся в топе по интересующим вас запросам
  • Сопоставить своего сайта с конкурентами в выдаче

Google всегда предпочитает фактический бренд другим сайтам. Поэтому бренды не должны «обходить» страницы Википедии и т.д.

4.3 Дублирование страницы

Поиска дубликатов страниц можно сделать с помощью Screaming Frog или вручную пересмотреть все страницы, которые находятся в индексе.

Наиболее часто проблемы с дублями возникают по причине:

  • 1 страница на HTTPS и HTTP
  • URL с и без «/»
  • Страница WWW с и без

Примеры:

  • http://justseoteam.com
  • http://justseoteam.com/
  • https://justseoteam.com
  • https://justseoteam.com/

В стандартном исполнении они все должны перенаправить на одну и ту же страницу, но если они не склеены, то все индексируются поисковыми системами и фактически являются 4 страницами с одинаковым контентом.

Скорость загрузки сайта

5.1 Определение скорости загрузки сайта

Скорость сайта становится все более важным показателем в Google, т.к.  является фактором ранжирования, который одновременно влияет и на позиции сайта и на удобство пользователей.

Вы должны постоянно бороться с скоростью загрузки сайта, делая все возможное, чтобы увеличить ее.

Есть несколько инструментов, которые можно использовать для анализа скорости загрузки сайта.

В первую очередь, PageSpeed Insights. Это собственный инструмент компании Google и с его помощью вы сможете определить скорость сайта в сравнении с другими через их систему классификации.

После того как вы запустите инструмент он определяет области, которые вы должны исправить. Там доступно обширное количество деталей.

После этого, как правило, запускаем WebPagetest. Это как еще один источник идей возможного увеличения скорости сайта.

Он предоставляет вам вместе с временем загрузки каждого отдельного элемента страницы, данные какие элементы загружаются дольше. Например, такие как HTML, JS, CSS, изображения, Flash и шрифты.

Пример,

5.2 Определение скорости отдельных элементов

После того, как вы запускали оба тестирования с помощью WebPagetest  и PageSpeed Insights  вы можете получить полный список элементов, которые нужно править.

Используя индивидуальные разбивки в WebPagetest, вы можете определить, есть ли определенные элементы, которые вы можете удалить или изменить размер каждого элемента.

ВЫВОДЫ

Сделать технический аудит сайта может каждый! Сделать выводы и описать оптимальное решение возникшей проблемы – специалист.

Остались вопросы? Пишите в комментариях, ответим на все!

Write a Comment

Your email address will not be published. Required fields are marked *