- Навіщо?
- Структура в адресах
- Чи не глибше 3-х рівнів
- Використання ЧПУ
- короткі адреси
- кросбраузерність
- швидкість сайту
- надійний хостинг
- Перевірка сусідів
- Редіректи і биті посилання
- сторінка 404
- файл robots.txt
У цій статті ми поговоримо про внутрішню оптимізацію сайту для просування в пошукових системах. Навіщо це потрібно і на що варто звернути увагу. Також додається відео з наочним поясненням всіх моментів.
Внутрішня оптимізація - комплекс необхідних заходів по усуненню помилок, які заважають користувачам і пошуковим системам правильно взаємодіяти з сайтом.
Навіщо?
Внутрішня оптимізація довела свою ефективність, тому її проводять все SEO-компанії при просуванні сайтів. Оптимізація - це безліч невеликих дій з сайтом, які дають серйозний ефект. Якщо ви думаєте, що потрібно зробити в першу чергу - проведіть оптимізацію.
Керуємося принципом Парето: 20% дій дають 80% результату.
Структура в адресах
Структуру сайту необхідно відображати в URL-адресах, щоб користувачеві і пошуковику було зрозуміло по URL, який контент розташований на сторінці.
- /2015.html - погано
- /remont.html - добре
Чи не глибше 3-х рівнів
Структура сайту не повинна бути дуже глибокою. Для більшості сайтів досить використовувати 3 рівня. Пошуковики вважають, що чим вище розташована сторінка в ієрархії сайту, тим більше вона значима.
- /one/two/three/2015.html - погано
- /remont/okna.html - добре
Використання ЧПУ
При використанні ЧПУ-адрес (людино-зрозумілі URL), користувачі і пошуковики можуть легше зрозуміти, що вона містить. Краще використовувати або трансліт (написання російських слів латинськими літерами), або переклад російських слів на англійську мову. Комбінувати ці способи не рекомендується.
- /primer.html - добре
- /example.html - добре
- /example-stranici.html - погано
короткі адреси
Короткі URL-адреси сторінок легко зрозуміти, скопіювати і запам'ятати. рекомендації:
- До 3-5 слів в URL-сторінки або каталогу
- Причини того і дефіси відкидаємо
- Роздільник між словами - дефіс «-»
кросбраузерність
Сайт повинен коректно відображатися на різних пристроях і операційних системах.
Сервіс для перевірки сайту на кроссбраузерность - http://browsershots.org/ .
Також рекомендую подивитися як виглядає сайт на всіх доступних вам пристроях (ноутбуки, планшети, мобільні телефони і так далі). Якщо в якійсь версії браузера або операційної системи сайт некоректно виглядає або працює, обов'язково це усуньте. Інакше користувачі будуть йти з сайту, що негативно позначиться на поведінкових факторах.
Щоб додатково перевірити, як виглядає сайт на різних пристроях, використовуйте «Переглянути код» в Google Chrome.
швидкість сайту
Оптимальна швидкість завантаження сайту - до 3 секунд. Для перевірки свого сайту скористайтеся наступними сервісами:
надійний хостинг
У хостингу, на якому розташований сайт, не повинно бути проблем з доступністю. Якщо пошуковий робот звернеться на ваш і не отримає відповідь через тимчасову недоступність хостингу, сайт буде виключений з індексу. Вибирайте надійний хостинг, який працює без перебоїв, виходячи з оглядів і відгуків на сайті ХостОбзор .
Щоб вчасно усувати проблеми з сайтом, підключіть повідомлення на e-mail в Яндекс.Метрика:
Перевірка сусідів
Якщо ви використовуєте віртуальний хостинг, перевірте веб-адреси, які розташовані на IP-адресу вашого сайту. Якщо сусіди - сайти для дорослих або торренти, краще купити виділений IP-адреса (приблизно 100 Р в місяць).
Сервіс для перевірки: https://2ip.ru/domain-list-by-ip/ .
Редіректи і биті посилання
Перевіряємо, щоб не було внутрішніх посилань на редіректи (перенаправлень на іншу сторінку) і битих посилань на неіснуючі сторінки.
Програма для перевірки: Xenu's Link Sleuth .
сторінка 404
При запиті неіснуючої сторінки, на сайт повинен віддаватися 404-код ( «сторінка не знайдена» або «Помилка 404»). Якщо відбувається редирект на головну або відкривається порожня сторінка, пошукова система може створити багато дублів, що негативно позначиться на індексації.
Гугл робить запити до неіснуючих сторінок сайту
файл robots.txt
Обов'язково використовуємо службовий файл robots.txt. Даний файл повідомляє пошуковикам інструкції про заборону індексації певних сторінок. Наприклад тих, які містять особисті дані користувачів.
Стаття Яндекса про налаштування robots.txt: https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Читайте також:
Навіщо?Навіщо?