Випуск №207 Самостійний SEO-аудит сайту. Інформаційна розсилка «Практика просування сайтів. Професійне посібник від PromoPult »- PromoPult.ru

Самостійний SEO-аудит сайту

Новий рік скоро вступить в свої права і за традицією розпочнеться з низки святкових днів. Їх можна присвятити не тільки відпочинку і веселощів, а й викроїти трохи часу для роботи з вашим сайтом, а саме - перевірити якість його оптимізації. Базовий SEO-аудит - нескладна, але вкрай важливе завдання, яке дозволить вчасно знайти критичні помилки на сайті, що знижують ефективність його просування. Для виконання такого аудиту досить початкових знань SEO, а в допомогу собі ви можете використовувати наш чек-лист з поясненнями і прикладами корисних інструментів.

Перевірка технічних параметрів

1. Файл Robots.txt. Містить інформацію для пошукових машин із зазначенням до індексації. Що необхідно перевірити:

1.1. Все обнародувано сторінки сайту повинні бути відкриті для роботів пошукових систем.

1.2. Службові розділи (админка, логи сервера) і сторінки з дублюючим контентом (архів, результати внутрішнього пошуку по сайту, пагінація ), Навпаки, повинні бути закриті від індексації. Примітка: закривати пагінацію можна тільки в тому випадку, якщо сторінки, припустимо, картки товарів, вже доступні десь для індексації (наприклад, в карті сайту), в іншому випадку частина сторінок просто не буде індексуватися.

1.3. Переконайтесь, що головне дзеркало сайту вказано вірно (прописано в директиві «Host»).

Як перевірити: відкрити сервіс Яндекс.Вебмайстер і завантажити файл Robots.txt. У вікні сервісу з'явиться повідомлення про можливі помилки, які можна тут же виправити, після чого завантажити назад на сайт оновлену версію файлу (докладніше про роботу з сервісом можна прочитати в його довідці ).

2. Файл Sitemap.xml. Документ зі списком посилань на всі сторінки сайту, повідомляє пошуковим системам про те, як організовані дані на вашому ресурсі. Він допомагає більш точно індексувати сторінки і знаходити роботам всі важливі матеріали.

Як перевірити: за допомогою валідатора Sitemap сервісу Яндекс.Вебмастер або іншими інструментами сервісу Google Webmaster .

3. Швидкість роботи сайту. Повільне завантаження сторінок сайту і проблеми з віддачею користувачам запитуваних документів можуть бути негативними факторами в оптимізації.

Як перевірити: інструмент від Google PageSpeed ​​Insights .

4. Кількість сторінок в індексі пошукових машин. Розбіжність фактичної кількості сторінок сайту (відкритих для індексації в Robots.txt) і кількості сторінок, які потрапили в активний індекс пошукової системи, є індикатором проблем з оптимізацією сайту. Причини можуть бути наступні: неправильна відповідь вашого сервера на запити пошукової машини або потрапляння в індекс дублів сторінок.

Як перевірити: для початку уточніть кількість сторінок в індексі Яндекса. Зробити це можна в рядку пошуку, вказавши оператор «host:» і домен вашого сайту (Рис. 1).

Мал. 1.

Аналогічно для Google, використовуючи оператор «site:» (Мал. 2).

Мал. 2.

За результатами перевірки цифри в обох системах можуть трохи відрізнятися (що не є відхиленням від норми), однак при значному розходженні слід шукати причину. При меншій кількості сторінок в індексі перевірте відповідь сервера за допомогою сервісу 2ip . При більшому - наявність в індексі дублів сторінок за допомогою програми Xenu або інструментів вебмастера Google. Також необхідно перевірити файл http_access, де за допомогою редиректів прописується склейка дзеркал і дублів категорій. Найчастіше в ньому виникають помилки.

Рекомендуємо для позбавлення на сайті від дубльованого контенту використовувати канонічні URL (тег rel = canonical), щоб оптимізувати сторінки з ідентичним або схожим змістом і віддавати пошуковій машині потрібну сторінку. При цьому інші сторінки (розпізнані пошуковою машиною як дублікати) будуть посилатися на канонічну. Детальніше про це читайте в довідці Google .

5. Биті посилання. Так звані биті посилання, що ведуть на неіснуючі сторінки сайту, можуть виникнути в результаті переміщення документів, зміни структури сайту, видалення або зміни адрес сторінок. Це є негативним фактором як для роботи сайту в цілому, так і для SEO.

Як перевірити: програми Xenu , Link Checker , А також інструменти веб-майстра Яндекс і Google.

аналіз контенту

1. Мета-теги. Найбільш значущими тегами HTML-розмітки сайту, в яких укладена службова інформація для пошукових машин, є «Title» і «Description». Тег «Title» задає заголовки сторінок сайту, і тому він повинен бути зрозумілим для користувачів і пошукових машин. Title включає в себе фразу з входженням ключових слів і є унікальним для кожної сторінки (Рис. 3).

Мал. 3.

Тег «Description» містить мета-опис, яке враховується пошуковими машинами і використовується при формуванні сниппета (відрізок тексту поруч з посиланням в пошуковій видачі).

Як перевірити: інструмент Seositecheckup (Перевірка проводиться посторінково).

2. Теги заголовків. Текст на сторінках сайту структурується за допомогою тегів заголовків h1-h6. Тут важливо пам'ятати, що заголовок h1 повинен використовуватися тільки один раз на сторінці і містити входження ключового слова. Про правила використання заголовків ми писали в однією з наших розсилок.

Як перевірити: подивитися верстку і організацію заголовків h1 на сторінці можна за допомогою програми Firebug , Розширення для браузера Firefox або аналогічними інструментами для інших браузерів (Рис. 4).

Мал. 4.

3. Оптимізація текстів. У текстах обов'язково оптимальне входження ключових слів, при цьому контент повинен бути природним і цікавим для користувачів.

Як перевірити: в SeoPult (на другому кроці створення проекту) реалізований зручний інструмент, скануючий сторінки сайту і визначає рівень тематичної оптимізації. На підставі аналізу даються рекомендації щодо входження запитів в Title і Body (тексті сторінки) (Рис.5).

Мал. 5.

4. Унікальність текстів. Цей параметр потрібно перевірити, навіть якщо ви впевнені, що всі тексти на сайті авторські і написані спеціально для вас. Існує ризик, що хтось міг скопіювати контент і використовувати його на своєму ресурсі.

Як перевірити: програми Copyscape , Advego Plagiatus .

5. Оновлення контенту. Регулярно проводите роботи по наповненню сайту новими текстами. Оновлення контенту сигналізує пошуковим машинам про те, що сайт розвивається і прагне бути цікавим для користувачів.

6. Соціальні кнопки. Переконайтеся, що на сторінках вашого сайту встановлені кнопки соціальних мереж. Оптимізація сайту під соціальні мережі приносить значний ефект у вигляді поліпшення поведінкових факторів, дозволяє збільшити охоплення аудиторії і підвищити продажі.

7. Адаптованість сайту під мобільні пристрої. Зверніть увагу на те, як відображається контент вашого сайту на дисплеї смартфона, чи зручний він для мобільних користувачів. Цьому фактору пошукові машини приділяють все більше уваги і вже проводять експерименти з ранжируванням сайтів в мобільному пошуку.

Як перевірити: пройдіть тест на зручність перегляду сайту на мобільних пристроях за допомогою інструменту від Google.

огляд трафіку

1. Ефективність ключових запитів. Важливо регулярно проводити аналіз і «чистку» семантичного ядра, позбавляючись від малоефективних запитів. Причому робити це необхідно по кожній з пошукових систем, в яких ви рухаєтеся.

Як перевірити: лічильники статистики Яндекс.Метрика, Google Analytics, а також сервіс аналітики SeoPult (Дозволяє отримувати детальні дані про переходах по пошуковим запитам як з Яндекса, так і з Google).

2. Досягнення цілей. Щоб розуміти, наскільки ефективно працює ваш сайт і забезпечує конверсії, необхідно не тільки налаштувати цілі, але і регулярно відслідковувати їх. У цьому вам допоможуть відомі системи аналітики Яндекс.Метрика і Google Analytics. Детальніше про налаштування цілей і способах формування звітів читайте в нашому випуск розсилки № 182 .

3. Динаміка трафіку. Тут має бути пошукати відповіді на наступні питання:

  • як змінюється обсяг трафіку (зростає, стоїть на місці, падає);

  • з яких джерел він приходить;

  • яка видимість сайту в пошукових системах;

  • за якими словами переважають переходи з пошуку;

  • як поводяться відвідувачі на сайті.

Зібрана статистика по динаміці трафіку допоможе дізнатися, як розвивається ваш проект і в якому напрямку варто рухатися для досягнення більш високих результатів.

Як перевірити: сервіси Semrush і SimilarWeb .

Перевірка маси посилань

Нормативний аналіз - один з ключових пунктів SEO-аудиту. Він дозволить дізнатися джерела, що посилаються на ваш сайт, і анкор посилань. Для аналізу посилальної маси використовуйте сервіс Ahrefs , Який володіє найбільшим індексом беклінків.


висновки
Провівши самостійно базовий SEO-аудит, ви отримаєте належне уявлення про те, яких результатів вам вдалося досягти на даний момент за допомогою пошукової оптимізації та які недоліки є перешкодою до більш успішному просуванню. Ці вихідні дані допоможуть більш детально вибудувати діалог з вашими підрядниками (вебмастером, оптимізатором) і в подальшому вести співпрацю в ефективному руслі.