Seo аудит сайта и поисковый анализ

Опубликовано: 05.02.2018

видео Seo аудит сайта и поисковый анализ

SEO-аудит сайта за 7 минут, как сделать анализ самостоятельно? — онлайн сервис проверки сайта

Каждый раз, берясь за новый клиентский проект или покупая какой-то сайт, пополняя свою графу активов, я провожу простейшую (как уже кажется мне) и уже привычную для меня процедуру – поисковый аудит сайта. Я делаю это не из-за чрезмерной самоуверенности со словами: «Все вокруг идиоты, один я Д’Артаньян», смотрите на сайте http://turboseo.net.ua/audit.htm. Нет! Просто я отношусь к поисковому продвижению и в целом к поисковому трафику как основному направлению моей работы и источнику в каком-то понимании дохода, ведь у меня немало сайтов построенных на заработке с контекстной рекламы. Да и как можно построить хороший проект в наши дни без поискового трафика, если это не какой-то выносящий мозг startup конечно. Именно поэтому в моей работе как сеошника данный пункт в услугах пользуется заслуженной популярностью.

Именно о поисковом аудите я сегодня и предлагаю вам поговорить. А точнее давайте разберем то, на что стоит обращать внимание при его проведении. В этом посте не будет тонкостей, это общий алгоритм работы.

Давайте для начала сразу же определим, что дает нам поисковый аудит сайта:

Robots.txt – это важный системный файл, в котором содержатся правила индексирования сайта для поисковых систем. Обычно он находится по адресу site.ru/robots.txt. В SEOquake проверить его наличие можно в ячейке «Robo», отсюда же можно и открыть этот файл, если он присутствует на сайте, смотрите http://turboseo.net.ua/audit.htm. Важно, чтобы robots.txt был написан правильно и не запрещал индексацию важных частей сайта, а то и всего сайта целиком.


Meta robots устанавливают правила индексирования для каждой отдельной страницы. Их можно проверить в Screaming Frog (вкладка “Meta& Canonical”). С одной стороны, стоит убедиться, не закрыты ли от индексации важные страницы, с другой – закрыты ли те страницы, которые индексировать не нужно.

Тег meta robots выполняет похожую функцию, что и robots.txt. Важное отличие заключается в том, что запрет индексации странницы с помощью robots.txt не гарантирует ее падения из индекса, тогда как запрет с meta robots – гарантирует.

Проверяем наличие XML карты на сайте в SEOquake: ячейка рядом с robots.txt. Обычно карта находится по адресу site.ru/sitemap.xml. XML карта создается для поисковых систем, чтобы обеспечить индексацию всех страниц сайта. Ссылка на созданную XML карту должна присутствовать в robots.txt (с новой строки после последней директивы):

Если сайт многоязычный, то стоит проверить, все ли языки перечислены в карте. XML карты недавно стали поддерживать языковые теги (подробнее об этом можно почитать здесь на ангийском).

HTML карта важна не для индексации, а для пользователей, но пишу о ней в этом пункте, раз уж начала о картах. Карта в формате HTML помогает пользователям ориентироваться на сайте, особенно на крупном. В принципе, для маленького сайтика она необязательна.

HTTP заголовки можно проверить с помощью Screaming Frog SEO Spider. Большинство страниц должны иметь 200 заголовки, некоторые – 301 (при склейке страниц). Остальные нужно изучать тщательнее. Часто встречаются 302 заголовки – временное перенаправление страницы и 404 – несуществующие страницы. Есть много других способов искать 404 ошибки, один из которых – сайт http://www.brokenlinkcheck.com/. Если есть доступ к Вебмастеру, можно посмотреть ошибки там. Причем Гугл Вебмастер также укажет Вам на так называемые soft 404 errors, когда страница вроде существует, но все равно возвращает 404 ответ.


Аудит сайта 🔮 Поисковый анализ сайта. Аудит юзабилити сайта. Ошибки и советы по продвижению сайта.

rss