Як провести повний SEO-аудит сайту: поетапне керівництво і 25+ корисних інструментів.
Першорядні завдання, що стоять перед фахівцем з SEO - це всебічне вивчення контенту, структури, технічних особливостей сайту і впливають на нього зовнішніх чинників, виявлення слабких місць, планування та реалізація необхідних доробок, з урахуванням всіх принципів роботи пошукових систем. А найголовніше, що проводити такий аналіз і оптимізацію потрібно регулярно, адже пошукові алгоритми постійно вдосконалюються, і багато тактики SEO застарівають і перестають працювати.
Незважаючи на те, що максимально високих результатів SEO-аудиту ви зможете домогтися, тільки вдавшись до співпраці з професіоналами, ви й самі можете багато чому навчитися, використовуючи нижчеописане керівництво, посилання на зовнішні матеріали та інструменти SEO, які ви знайдете в другій половині статті. Протягом всієї статті будуть згадуватися інструменти Яндекса і Google, як найголовніші і зручні інструменти для пошукового просування.
Етап 1. Підготовка до SEO-аудиту
Найкраще почати зі сканування сайту, використовуючи краулер (пошуковий робот), наприклад, Screaming Frog SEO Spider. Цей інструмент аналізує код, контент, внутрішні та вихідні посилання, зображення та інші елементи сайту з точки зору SEO і становить загальне уявлення про стан справ.
Не можна забувати про можливості стандартних сервісів пошукових систем - Яндекс.Вебмайстер і Google Webmaster Tools - вони також надають велику кількість цінної інформації.
Етап 2. Внутрішній SEO-аудит
Технічний аудит
Robots.txt
Файл robots.txt за бажанням розміщується в кореневій директорії сайту і містить інструкції щодо його індексуванню для роботів пошукових систем.
З використанням різних директив robots.txt можна:
заборонити або дозволити роботам індексувати деякі розділи і сторінки сайту або весь сайт целіком;
вказати шлях до карти сайту sitemaps.xml, що сприяє правильному індексуванню;
дати зрозуміти роботові, яке дзеркало сайту - при наявності декількох його копій - є головним, і які дзеркала індексувати не потрібно;
знизити навантаження на сайт від пошукових роботів, якщо в певній ситуації необхідно економити ресурси.
При цьому різні правила можна створювати для окремих пошукових систем і навіть для різних роботів однієї і тієї ж системи.
Використовуйте всі можливості robots.txt. Переконайтеся, що заборонено індексування «секретних» областей сайту, сторінок з контентом низької якості і сторінок-дублікатів. Перевірте, чи дозволений доступ до всіх областей сайту, які мають бути проіндексовані пошуковими системами.
При аналізі файлу robots.txt вам допоможуть Яндекс.Вебмайстер, Google Webmaster Tools і інші сервіси.
Вказівки для пошукових роботів у тегах
Але для ще більш гнучкого управління індексуванням сайту і його окремих сторінок помістіть директиви для пошукових роботів у тегах. Так ви дозволите або забороніть роботам індексування конкретних сторінок і перехід по розміщених на них посиланнях.
XML Sitemap
Файл Sitemap (карта сайту) додається в кореневу директорію сайту і дає пошуковим системам інформацію про те, які сторінки сайту повинні бути проіндексовані, які з них в першу чергу, як часто вони оновлюються.
Якщо на сайті вже є файл Sitemap (бажано у форматі XML), то перевірте коректність його коду за допомогою валідатора (такий інструмент є, зокрема, в сервісах для веб-майстрів від Яндекса і Google). Подбайте також про те, щоб файл Sitemap містив не більше 50 тис. URL і важив не більше 10 Мб. Якщо ці ліміти перевищені, то доведеться створити декілька файлів Sitemap і один індексний файл Sitemap Index зі списком усіх карт.
Якщо карти сайту поки немає, створіть її вручну або за допомогою одного з безлічі інструментів (наприклад, XML Sitemap і його аналогів, плагінів для WordPress та інших поширених двіжков- з більшим списком інструментів можна ознайомитися на ресурсах Google).
Після створення проаналізуйте карту в валідаторі і повідомте пошуковим системам про її існування через їх сервіси для веб-майстрів, а також за допомогою додавання шляху до Sitemap в файл robots.txt.
Markup Validator - валідатор html-коду для усунення неточностей та помилок коду, що знижують позиції сайту у видачі. Створено спільнотою, яка займається розробкою і затвердженням міжнародних стандартів веб-розробки.
Оцінка якості індексування сайту
Команда site: зазвичай вводиться в рядку пошукових машин, щоб обмежити зону пошуку певним доменом. Але ця команда дозволяє також дізнатися приблизну кількість всіх сторінок сайту, які були проіндексовані. Для цього просто введіть site: c доменним ім'ям без слів пошукового запиту.
Порівняйте кількість проіндексованих сторінок із загальною кількістю сторінок сайту, яке ви дізналися на стадії створення sitemap.xml і сканування сайту за допомогою Screaming Frog, Xenu's Link Sleuth або інших інструментів.
Якщо обидва числа майже однакові, значить, сайт проіндексовані добре. Якщо проіндексовані не всі сторінки, то з'ясуйте причину - можливо, ваш сайт не оптимізований для пошукових систем, має багато закритих від індексування розділів і сторінок або потрапив під санкції. Якщо ж кількість проіндексованих сторінок перевершує реальна їх кількість, то, ймовірно, на вашому сайті є багато дубльованого контенту, про який мова піде далі в цій статті.
Коди стану HTTP
Код стану HTTP - це частина першого рядка відповіді сервера при запитах по протоколу HTTP. Він являє собою ціле число з трьох арабських цифр, що знаходиться в першому рядку відповіді сервера при запиті до веб-сторінці, і показує її поточний стан. Необхідно встановити, при зверненні до яких URL сайту з'являється повідомлення про помилку - зазвичай з кодом виду 4xx або 5xx. Наприклад, широко відомо: код 404 означає, що сторінка не знайдена, а код 503 - що виявлена внутрішня помилка сервера. Код 200 говорить про те, що все працює добре.
Якщо на сайті використовуються перенаправлення (редіректи) з одних URL на інші, то переконаєтеся, що це саме 301 редіректи, а не 302 і не перенаправлення, прописані в тегах, або за допомогою javascript. Використовуючи 302 redirect (Temporary redirect) - «тимчасово переміщений» - замість 301, вихідний URL буде залишатися в індексі Google, і утримувати свої позиції, як якби сторінка все ще була доступна. Однак користувачі, які будуть кликати на засланні, потраплять на ваш новий URL - саме туди, куди ви маєте намір їх спрямувати.
Для перевірки кодів стану HTTP можна користуватися різними сервісами - наприклад, спеціальним інструментом від Monitor Backlinks або вбудованими засобами Яндекс.Вебмайстер і Google Webmaster Tools.
URL сторінок сайту
Грамотний URL сторінки має довжину не більше 100-120 символів, складається в основному з легкочитаємий слів (наприклад, ось такий: https://myacademy.ru/courses/bazovyi_kurs_po_seo/) містить ключові слова, які описують сторінку.
Все це сприяє не тільки кращому пошуковому індексуванню, а й підвищенню зручності для відвідувачів сайту.
Намагайтеся уникати складних адрес з параметрами і віддавати перевагу статичним посиланнях, використовувати для розділів у структурі сайту директорії, а не субдомени, розділяти окремі слова в URL дефісами або знаками підкреслення, таке написання краще сприймається відвідувачами сайту.
Швидкість завантаження сайту
Користувачі інтернету нетерплячі і відразу покидають повільні сайти. Так само і у пошукових систем є певний ліміт часу на обробку кожного сайту, тому швидкі сайти індексуються ретельніше і за більш короткий період часу.
Як проаналізувати швидкість завантаження сайту?
Застосовуйте вбудовані засоби систем веб-аналітики (наприклад, звіти про час завантаження сторінок є в Google Analytics і Яндекс.Метрика. А для найбільш повного аналізу швидкості можна використовувати спеціалізовані сервіси, наприклад, Google PageSpeed Insights або YSlow.
Якщо сайт потребує прискорення, оптимізуйте зображення в графічному редакторі за допомогою функції підготовки графіки для публікації в інтернеті, скоротіть обсяг коду HTML і CSS, приберіть зайвий код javascript, розумно використовуйте стиск, кеш браузера і сервера і здійсните інші необхідні дії.
Етап 3. Аудит структури сайту
Архітектура сайту
Сайт повинен мати ясну і логічну структуру сторінок, впорядкованих за категоріями і тісно пов'язаних між собою внутрішніми посиланнями.
Уникайте великої кількості рівнів вкладеності: нехай всі важливі сторінки будуть розташовані в одному кліці від головної, а інші сторінки - не далі, ніж в 3-4 кліки.
Така проста для відвідувача архітектура сайту дозволить пошуковим машинам швидше проіндексувати всі сторінки сайту, а відвідувачам допоможе не заблукати і швидко знайти потрібну інформацію, що, в кінцевому рахунку, теж позитивно вплине на SEO.
Намагайтеся не використовувати на сайті навігаційні меню, створені за допомогою Flash і javascript. Це небажано, навіть незважаючи на те, що пошукові системи сьогодні набагато розумніші, ніж торік.
Якщо все ж javascript-навігація присутній на сайті, проведіть два етапи індексування сайту за допомогою Screaming Frog, Xenu's Link Sleuth або іншого спеціалізованого сервісу (ми писали про це на початку цього керівництва): з включеним і відключеним javascript. Це дозволить виявити, виявилися якісь розділи і сторінки сайту недоступними для індексування через наявність javascript-меню.
Внутрішні посилання
Внутрішня перелінковка сприяє кращому індексуванню сайту і розумного розподілу ваги сторінок.
У цій нелегкій справі допоможе Page Rank Decoder - інструмент для прогнозування розподілу ваги сторінок при використанні різних схем перелинковки.
Встановіть між сторінками сайту безліч зв'язків, дотримуючись при цьому прості вимоги:
в якості анкорів використовуйте не тільки ключові слова, але і різний нейтральний текст - наприклад, такі заклики до дії, як «ознайомтеся», «скачайте» і т.п. (Це робить загальну масу посилань більш природною для пошукових систем, тоді як достаток ключових слів виглядає підозріло) ;
сторінки і ключові слова у складі анкорів повинні бути релевантні контенту цільових сторінок;
направляйте більше посилань на ті сторінки, які повинні зайняти більш високі позиції;
посилайтеся на такі сторінки з «Головною» ;
Не ставте на одній занадто велика кількість внутрішніх посилань.
Етап 4. Аудит контенту
Заголовки сторінок
Заголовки сторінок - це перше, що бачить ваша аудиторія в пошуковій видачі і в соціальних мережах, після чого вони приймають рішення відвідати ваш сайт. Тому важливо приділити оптимізації заголовків особливу увагу.
Формулюйте заголовки коротко: намагайтеся не виходити за рамки 70-90 символів, інакше заголовок може бути обрізаний в результатах пошуку, в соціальних мережах, а користувачі Twitter не зможуть додати до нього свої коментарі.
Заголовки службових та різних інформаційних сторінок сайту (за винятком статей та інших подібних тематичних продуктів) повинні точно описувати їх зміст.
Не забудьте додавати в заголовки сторінок ключові слова - бажано ближче до початку. Але не переходите межі розумного: як і у випадку з усім контентом сторінки, придумуйте заголовки для людей, а не для машин.
Переконайтеся, що всі сторінки на сайті мають унікальні заголовки. У цьому вам допоможе, наприклад, сервіс Google Webmaster Tools, в якому є інструмент пошуку сторінок з однаковими заголовками.
Опису сторінок в тегах
Опис сторінки з тега може включатися в сниппет в пошуковій видачі, тому варто відповідально підійти до управління мета-описами важливих сторінок