Іван Севостьянов. Пошукова оптимізація

  1. Глава 1. Підготовчий етап
  2. Глава 2. Аналіз попиту на товари (послуги) сайту серед аудиторії пошукових систем
  3. Глава 3. Аналіз конкуренції і конкурентів
  4. Глава 4. Текстова складова сайту (контент)
  5. Глава 5. Оптимізація сайту під пошукові системи
  6. Глава 6. Робота зі структурою сайту: аналіз, оптимізація
  7. Глава 7. Технічний аудит сайту
  8. Глава 8. Робота із зовнішніми посиланнями
  9. Глава 9. Комерційні фактори ранжирування
  10. Глава 10. Поведінкові чинники ранжирування сайтів
  11. Глава 11. Асессорскіе фактори ранжирування сайту

Коли я почав публікувати замітки на сайті, то нічого не знав про SEO. Приблизно через рік після запуску сайту прочитав Оптимізація і просування сайтів в пошукових системах , І ... пошкодував, що не зробив це відразу. Зараз сайту вже більше 7 років, і останні два роки зростання відвідуваності сповільнилося. Я спробував залучити сеошника, і скористався послугами з Kwork.ru . На жаль, був розчарований. Чи то мені не пощастило, чи то в цій області так прийнято ... Спеціаліст зробив, можливо, все правильно, але формально. Наприклад, змінив настройку постійних посилань з http://baguzin.ru/wp/?p=123 на http://baguzin.ru/wp/samplepost/ . А коли я запитав, чи не вплине це на видачу в пошукових системах, задав питання, як давно існує сайт ... Кілька плагінів перестали коректно працювати, і т.п.

В черговий радий переконавшись, що порятунок потопаючих, справа рук самих потопаючих, я вирішив освіжити свої знання, і зупинив свій вибір на книзі Івана Севастьянова. Автор наводить способи залучення більшої кількості клієнтів на сайт без додаткових інвестицій в рекламу за рахунок створення проекту відповідно до вимог пошукових систем Яндекс і Google.

Іван Севостьянов. Пошукова оптимізація. Практичний посібник з просування сайту в Інтернеті. - СПб .: Пітер, 2016. - 272 с.

- 272 с

Завантажити конспект (короткий зміст) в форматі Word або pdf

Купити цифрову книгу в ЛітРес (Видання 2010 року), паперову книгу в Ozon або лабіринті

Глава 1. Підготовчий етап

Перш ніж починати заходи з просування сайту, треба чітко розуміти, що ви будете просувати. Просувається НЕ сайт, а бізнес замовника, його товари і послуги (рис. 1).

Мал. 1. Схема просування в існуючих методах (зліва) і якою вона має бути (праворуч)

Сайт повинен бути зроблений для користувача, а не для співробітників фірми і генерального директора. Юзабіліті - це зручність використання сайту. Рекомендую книги і статті Якоба Нільсена і Стіва Круга .

Сайт повинен однаково проглядатися у всіх браузерах дворічної давності. Для перевірки використовуйте сервіс http://browsershots.org/ . Обробка помилки 404. Створіть сторінку-заглушку, що повідомляє про те, що даного документа не існує, і рекомендує скористатися пошуком або перейти на головну сторінку сайту. Якщо в результаті пошуку по сайту нічого не знайдено, запропонуйте розширений пошук або повідомте, що за запитом нічого не знайдено, і запропонуйте переформулювати запит або звернутися в офіс компанії. Всі рисунки повинні бути зрозуміло підписані (тег alt), щоб з виключеною графікою сайт нормально відображався і розумівся користувачем. У тегах <img /> обов'язково ставити атрибути height і width

Тестування юзабіліті можна доручити експерту, запрошеним користувачам (5-7 чоловік), спеціалізованому ПО, наприклад, Моrае від компанії TechSmith. У процесі аналізу сайту слід оцінити: головну сторінку сайту, навігацію по сайту, структуру сайту, графічне і шрифтове оформлення сайту, інформаційне наповнення сайту. Безкоштовно перевірити сайти ви зможете, зареєструвавшись на нашому сервісі чек-листів .

Так само ви слід провести аналіз якості обробки заявок з сайту. А то трафік ви наженете, а обслуговування клієнтів підкачає. Можна скористатися послугами мобільного офісу або IP-телефонії (наприклад, від манго Телеком ), Або замовити сервіс отримання звітів по дзвінках, за різними рекламним джерелами від Reklamer.ru .

Щоб просування сайту дало результат, сайт повинен бути створений з урахуванням SEO-вимог.

  1. Можливість прописувати основні метатеги для кожної сторінки, а також робити правки будь-якої сторінки.
  2. Шаблон robots.txt.
  3. Адекватні коди відповіді сервера.
  4. Відсутність дублікатів.
  5. Закриття зайвих посилань через Java Script.
  6. Поля під лічильники.
  7. Прописування тексту копірайту в нижній частині (підвалі) сайту.
  8. Можливість змінювати <alt> і <title> у картинок.
  9. ЧПУ для сайту або можливість їх налаштування.
  10. Можливість налаштування «хлібних крихт».
  11. Можливість розміщувати внутрішні і зовнішні гіперпосилання в контенті, опублікованому на сайті.

Додатковими можна назвати теги: description, title, h1-h6, alt і title у картинок.

Глава 2. Аналіз попиту на товари (послуги) сайту серед аудиторії пошукових систем

Перш ніж починати процес просування вашого сайту в пошукових системах, необхідно зрозуміти величину (та й наявність взагалі!) Попиту на ті товари або послуги, які пропонуються на вашому сайті. Попит в пошукових системах може бути легко вивчений за допомогою статистики запитів пошукових систем. Процес пошуку запитів і їх угруповання називається складанням семантичного ядра сайту. Семантичне ядро ​​є фундаментом просування вашого сайту (рис. 2).

Мал. 2. Схема просування сайту

При складанні ядра враховується зміст запиту, а не його форма; враховуються точні формулювання запитів; для включення в ядро ​​запит повинен бути досить частотним. Аналіз частот виявлених запитів здійснюють за допомогою інструментів статистики Яндекс.Директ і Google Trends .

У семантичне ядро ​​слід додати можливі варіанти написання слів: синоніми; орфографічні помилки, а також помилки сприйняття на слух (наприклад, «агенство» замість «агентство»); варіанти перекладу або транслітерації ( «Фудзіцу» і «фуджі цу», «ноутбук» і «нотебук»); жаргонні назви ( «материнка» замість «материнська плата»); варіанти заміни іменника прикметником або дієсловом ( «продавати» замість «продаж», «комп'ютерний магазин» замість «магазин комп'ютерів»). Автоматизувати процес отримання різних типів частот можна за допомогою сервісу Seocrm .

Коли ми склали ядро ​​з кількох сотень або тисяч запитів, наша наступна задача - з кожною групою запитів зіставити вже наявну сторінку на сайті або виділити сторінки, які потрібно буде створити. Основний принцип угруповання запитів - одна сторінка повинна вирішувати одну проблему користувача.

На головну сторінку сайту зазвичай групують найскладніші і конкурентні запити. Зазвичай це 4-6 найскладніших з точки зору конкуренції запитів. Для перевірки правильності угруповання вводите запит в пошукову систему, і дивіться, які сторінки у видачі. Можна також скористатися спеціальними сервісами, наприклад, Мегаіндексом .

Збір семантичного ядра вирішує ще одну важливу задачу. Він дозволяє зрозуміти, яка структура повинна бути у сайту з точки зору кінцевого користувача (рис. 3).

3)

Мал. 3. Схематична структура сайту: без семантики (це 99% всіх сайтів) і структура сайту, яка була створена після аналізу та збору семантики (це 1% всіх сайтів)

Глава 3. Аналіз конкуренції і конкурентів

Вивчіть топ-10 пошукової видачі по «жирним» запитам. Подивіться, хто займає перші 10 місць по кожному із запитів. Занесіть дані по цим сайтам в таблицю. Потім по кожному сайту оціните параметри авторитетності: кількість зовнішніх посилань; PageRank в Google; тИЦ (тематичний індекс цитування) в «Яндексі».

Якщо ви хочете зрозуміти, скільки конкуренти витрачають на просування зробіть аналіз за допомогою одного з агрегаторів: PromoPult , WebEffector , Rookee , Wizard.Sape . Рекомендую також почитати Як визначити своїх конкурентів .

Глава 4. Текстова складова сайту (контент)

Контенту має бути багато і по темі, контент повинен бути унікальним (неворованним), контент повинен бути якісним. SEO-копірайтинг - це певна техніка створення і редагування текстів для веб-сайтів таким чином, щоб, по-перше, користувач міг легко прочитати і зрозуміти текст і, по-друге, щоб при цьому текст містив необхідні для пошукового просування ключові слова в потрібних місцях і необхідних пропорціях. Основним завданням SEO-копірайтингу є підвищення рейтингу сайту в результатах видачі пошукових машин при здійсненні пошуку по цільових ключових запитах.

Специфіка текстів в Інтернеті обумовлена ​​тим, що користувачі НЕ читають тексти, а переглядають їх (докладніше див. На що звертають увагу веб-читачі ). Особливості «читання» в Інтернеті:

  • виділення ключових слів, в тому числі гіпертекстовими посиланнями
  • грамотно складені (а не наворочені) підзаголовки;
  • списки з маркерами;
  • один абзац на одну ідею (користувачі пропустять всі інші ідеї, якщо їх не притягнуть ключові слова абзацу);
  • стиль перевернутої піраміди в написанні тексту, де стаття починається з укладення;
  • кількість слів менше, ніж у звичайній статті.

Для досягнення успіху в просуванні сайту необхідно провести так званий контент-аналіз. Контент-аналіз - це процес зіставлення сторінок на сайті з пошуковими запитами з семантичного ядра або запитами, обраними для просування сайту. Мета контент-аналізу - визначити, під які запити просувати кожну сторінку сайту, які сторінки сайту найбільше відповідають запитам, під які запити на сайті немає текстів.

Корисні посилання по темі: методика контент-аналізу «від пошукачів» ; метод питань при проектуванні структури і змісту сайту , Стаття Якоба Нільсена Як читають веб-користувачі , сервіс перевірки контенту на унікальність .

Помилки в текстах з точки зору SEO: виділення ключових слів жирним шрифтом (виділяйте жирним те, що потрібно: ключові фрагменти тексту, найважливіше, але не ключові слова), Переспа контенту ключовими словами (за Переспа легко можна потрапити під фільтр пошукової системи; золота пропорція така : досить 1-2-3 входжень на 2-3 тисячі знаків), тексти для роботів, погане форматування, «кульгава» граматика, немає заголовків і підзаголовків, велика помилка - писати тексти заради обсягу, не починайте абзац з вступного слова, це перший ознака «води».

Кожен абзац - це закінчена думка. Ви можете користуватися концепцією перевернутої піраміди (рис. 4; докладніше див. Барбара Мінто. Принцип піраміди Мінто ).

Принцип піраміди Мінто   )

Мал. 4. Схематичне зображення концепції перевернутої піраміди

Текст + графіка - це краще, ніж просто текст.

Глава 5. Оптимізація сайту під пошукові системи

Для проведення SEO-аудиту я користуюся різноманітним софтом: Screaming Frog SEO Spider - дуже хороша програма. При річної вартості платної версії приблизно 7000 рублів вона дозволяє виявити безліч помилок, пов'язаних з title, заголовками (h1-h6), дублікатами та ін .; Solomono - призначена для аналізу посилань; PRCY; Page Weight - використовується для аналізу битих посилань і розподілу ваг; «СайтРепорт» - один з найбільш адекватних аналітичних сервісів.

Ключове слово повинно згадуватися в тезі title, все title на сайті повинні бути різними. [1] Багато оптимізаторів ігнорують роботу з ключовими словами (keywords), я дотримуюся думки, що в SEO дрібниць немає. У розділі keywords має бути ключове слово (але не повторюйте його 10 разів); розділ keywords повинен бути унікальним для кожної сторінки; ключові слова не повинні бути розділені знаками пунктуації; довжина keywords - не більше 250 символів; необхідно використовувати ключові слова, що зустрічаються на сторінці. Приклад правильного написання тега keywords: <meta name = "keywords» content = "корпоративне навчання курси тренінги семінари по SEO пошукова оптимізація онлайн-семінари»>

Description. Це сниппет, який фактично може відображатися у видачі пошукової системи при введенні певного запиту. Завдяки мікро-розмітці сьогодні можна керувати вмістом окремих сторінок. У description має бути ключове слово (одне); він не повинен повторювати вміст тега title; description повинен бути читабельним, так як він відображається в деяких пошукових системах; розділ description повинен бути унікальним для кожної сторінки; довжина description - не більше 250 символів; текст тега description повинен містити ключове слово (ближче до початку) і бути привабливим з точки зору реклами (фактично це рекламне повідомлення). Якщо title - це заголовок нашого рекламного оголошення, яке приваблює на сайт, то description - його короткий опис. Якщо у вас не виходить використовувати пряме входження ключового слова, сміливо вказуйте його словоформи.

Тег h 1. Використовуйте один тег h1 на сторінку, оскільки ми маємо справу з єдиним - і основним - заголовком сторінки; вживайте ключове слово один раз; тег повинен бути унікальний для кожної сторінки; в тезі не повинно бути знаків пунктуації та будь-яких знаків, що розділяють пасаж; тег повинен вживатися в «голом» вигляді - бажано без класів і ін .; розмір тега - максимум два пропозиції; тег не повинен бути гіперпосиланням; не забувайте закривати заголовок закриває тегом. Приклад правильного використання тега: <h 1> Пошукове просування та оптимізація сайтів </ h1>

Перелінковка на сайті. Вона дозволяє підвищити: умовну вагу внутрішніх сторінок на сайті; зручність сайту за рахунок переходу по посиланнях; поведінкові характеристики; позиції по ряду запитів за рахунок дії алгоритму BrowseRank. Шляхів реалізації перелинковки досить багато.

Пошуковики вміють враховувати кликабельность посилань, тому посилання, на яких клацають користувачі, приносять вам конкретну користь. Йдеться як про зовнішні (особливо тематичних), так і про внутрішніх посиланнях. Алгоритм BrowseRank - це алгоритм обліку внутрішніх клікабельних посилань, добре працює по низько і середньочастотних запитах, який обов'язково потрібно враховувати при перелинковке на сайті.

Існують наступні ресурси, що дозволяють перевірити контент на унікальність: Advego Plagiatus; www.miratools.ru; Audit.megaindex.ru; http://webmaster.yandex.ru/spellcheck.xml . Розміщуючи новий контент на сайті, завжди підтверджуйте його унікальність.

Закривайте зайвий контент від індексації. Закриття підвищує релевантність сторінки, додає умовну вагу сторінки, не засмічує індекс пошукової машини. Закриваємо так: <script> document.write ( '<a href=»»> Сайт Васі Пупкіна </ а>'); </ script>

Глава 6. Робота зі структурою сайту: аналіз, оптимізація

У сайту повинна бути структура. Це як в бібліотеці, де у кожної книги є класифікатор. Правильна структура сайту важлива як для відвідувача, так і для пошукової машини. Необхідно оптимізувати: види URL (адреси сторінок сайтів); Карта сайту; внутрішнє ранжирування посилань; приведення структури до принципу «трьох кліків» (по можливості); для великих сайтів: можливо рознесення на піддомени.

Приклад хорошого URL: http://www.putin.ru/prezident/.

Приклад не дуже гарної URL: http://www.xxx.ru/site.php=?234.

Приклад поганого URL: http://www.infomsk.ru/board/price.php3?part=0&type= 5 & oper = 3 & src = 2.

Карта сайту - документ, що містить посилання на основні розділи (документи) сайту. Карта потрібна для нормальної індексації та розподілу ваг сторінок на сайті. Карта сайту - відмінний інструмент для забезпечення рівномірного перетікання ваги (PageRank) по сайту за умови, що всі сторінки сайту посилаються на неї (рис. 5). Як наслідок - її грамотне використання дозволяє отримувати хороші результати при просуванні запитів (особливо низькочастотних; див. Також про ранжируванні документів в пошукових машинах ).

Мал. 5. Розподіл ваг сторінок на сайті: а) без карти, б) з картою сайту

Дуже корисний інструмент при роботі з внутрішнім ранжированием - програма Page Weight. Вона дозволяє розраховувати умовні ваги сторінок і бачити, яку вагу мають обнародувано сторінки після перелинковки.

Додайте копірайт в підвалі сайту - встановіть посилання, що веде на головну сторінку. Анкор посилання повинен містити в собі ключові слова, по яких просувається головна сторінка.

Перелінковка підвищує глибину і час перегляду - живі люди клацають на засланнях, підвищуючи ці показники. Отже, поліпшуються конверсія і поведінкові метрики. Рекомендую ознайомитися з чудовою статтею розтлумачити PageRank , Яку в 2001 році переклав і забезпечив коментарями Олександр Садовський, нинішній керівник пошуку в «Яндексі» (див. Також Алгоритм посилання ранжирування PageRank і лінійна алгебра ).

Чим більше сторінок на сайті, тим вище початковий і кінцевий MiniRank. Ефект від лінковки краще відчувається на сайтах з великою кількістю сторінок. Використовуючи програму Page Weight, ви можете побачити це на власні очі. Основні типи лінковки: контекстні посилання; "хлібні крихти"; блоки Дивись також. Повторення анкоров посилань вкрай небажано. Якщо у вас великий продає сайт, де є тисячі посилань з однотипними анкорами, ви можете потрапити під санкції пошукової системи. Використовуйте семантику і дані «Яндекс.Метрики». Софт для перелинковки: Page Weight, НТгасег, Linkoscop, Ubersuggest, Visual SeoStudio, Audit.megaindex.ru, Digits.ru.

Глава 7. Технічний аудит сайту

Технічний аудит - перевірка і аналіз сайту для виявлення технічних помилок (серверні фактори, биті посилання, дублі сторінок і т.п.). Чек-лист для технічного аудиту може складатися з наступних розділів.

Індексація сайту двома пошуковими машинами - «Яндексом» і Google. Існує безліч автоматизованих сервісів і онлайн-програм, що дозволяють перевірити адекватність індексації сайту.

robots.txt повинен бути налаштований і лежати в кореневій директорії сайту. Я вважаю за краще закривати на сайті блоки, дубль головної, сторінки зі знаками питання від минулого движка, без псевдостатікі тощо. Robots.txt, директиви і команди:

Host - вказуєте основне дзеркало.

Disallow - сторінки, підрозділи, директорії, які не повинні індексуватися, або правила для заборони індексації окремих сторінок.

Sitemap - передає пошуковому роботу посилання на карту сайту, проходячи через яку він позначає сторінки для індексації.

Useragent - пошуковий робот Яндекса / Googlebot

* - будь-який юзерагент.

/ - в Disallow означає заборону індексації всього контенту.

Вказуйте всі розділи і підрозділи, які заборонені для індексації.

Які Сторінки нужно закрити, тому что смороду НЕ потрібні в індексі: Сторінки сайту для друку; Сторінки переходів (пагінацію) з однакової опису; дублі сторінок, особливо дублі головної сторінки, що генерується двигуном; результати угруповань (за ціною, назвою); сторінки, що залишилися від старої CMS.

Про те, як потрібно складати robots. txt (особливо для «Яндекса»), можна почитати на сторінці Допомога в «Яндекс.Вембастере» або на сайті http://robotstxt.org.ru/ . Після створення robots.txt варто перевірити, як його бачить «Яндекс». Для цього використовуйте інструмент «Яндекс.Вебмайстер».

Пошук битих посилань. На щастя, цей процес вже досить автоматизований. Биті посилання потрібно шукати, тому що вони: негативно впливають на результати і поведінкові фактори, завжди дратують відвідувачів сайту - зростає показник відмов. Більш того, якщо таке посилання буде виявлена ​​асессором, позиції сайту погіршаться. Софт для пошуку битих посилань: Xenu - безкоштовна програма; Page Weight - умовно платний софт; Webmaster.yandex.ru - безкоштовна програма.

Щоб сервер адекватно реагував на запити від пошукових роботів, коди повинні бути правильно налаштовані:

  • 200 - для всіх індексованих сторінок;
  • 301 - для редиректів (переадресації, наприклад, при зміні движка, для збереження трафіку);
  • 404 - для неіснуючих сторінок;
  • 304 - для не змінило контент з моменту останньої індексації.

LastModified - це HTTP-заголовок, який повертає дату останнього документа на сайті. З цієї дати визначається, чи варто переіндексувати дану сторінку. Проігнорувавши LastModified, ви отримаєте: відсутність дати поруч зі сторінками вашого сайту в результатах пошуку; час сортування за датою сайт не буде видно більшості користувачів; неможливість отримання роботом інформації про те, чи оновилася сторінка сайту з моменту останнього індексування.

Для перевірки адекватності заголовків LastModified є спеціальний сервіс ( http://lastmodified.com/ru ). Коди відповіді сервера також перевіряються за допомогою онлайн-сервісів. Я використовую www.bertal.ru. Досить ввести адресу сторінки, щоб отримати код.

Дублі: засмічують індекс; підвищують ризик випадання сторінок з індексу.

Вважається, що оптимальні варіанти кодування - Windows1251 і UTF8. Незважаючи на те що сучасні двигуни визначають такі речі самостійно, не зайвим буде додатково перевірити адекватність кодування, наприклад, за допомогою спеціальних сервісів: www.bertal.ru ; www.be1.ru/stat/ .

Сервер повинен працювати швидко: ідеальний час відгуку складає 0,01 секунди. Поточну швидкість просувається ресурсу ви завжди зможете перевірити онлайн-утилітою .

Файл Favicon.ico. Це значок, який відображається зліва в пошуковій видачі. Намальовану дизайнером піктограму (16 х 16 пікселів) необхідно розмістити в кореневій директорії сайту. Подробиці про те, як це зробити, можна прочитати в допомоги «Яндекс.Вебмайстер» (див. Також Іконки для сайту: що це таке, як розмістити, де скачати, як створити самому ).

Глава 8. Робота із зовнішніми посиланнями

Робота із зовнішніми посиланнями - дуже важливий етап для організації продажів з сайту. Від якості і кількості зовнішніх посилань залежать позиції вашого сайту, а значить, і продажу. Способ перший. Довідкові статті - відмінний інструмент для просування вашого сайту в пошукових системах. Можете спробувати розміщувати довідкові статті через посилальних брокерів, наприклад, http://seozavr.ru .

Способ другий. Платні ПОСИЛАННЯ. На жаль, але зараз (на момент написання книги, 2015 г.) цей метод поступово вмирає. Біржі посилань - сайти, що дозволяють купувати і продавати посилання в автоматичному (або напівавтоматичному) режимі. Способ третій. Посилання з соціальних мереж.

Природний контрольний профіль в довгостроковій перспективі працює краще, ніж покупка посилань на біржах (особливо в світлі останніх заяв «Яндекса» про відключення платних і неприродних посилань). Безанкорние посилання в посилальному профілі сайту - ознака його природності для пошукової системи. Використовуючи безанкорние посилання, ми гарантовано не потрапимо під фільтри Google і «Яндекс». Види безанкорние посилань для вашого ЄСП: URL; назва бренду; загальні: тут, тут, там, посилання і т.п .; низькочастотний запит; посилання з картинки.

Глава 9. Комерційні фактори ранжирування

На сьогоднішній день існує величезна кількість факторів (понад 800 в «Яндексі» і майже 200 в Google). У 2011 році «Яндекс» зробив значущими кілька показників, що характеризують надійність онлайн-продавця: впізнаваність бренду; асортимент, наявність представництв; рівень цін, параметри оплати, доставка і т.д. У 2013 році Яндекс опублікував Доповідь за формулою комерційного ранжирування. Чотири основні чинники в комерційному алгоритмі: надійність, зручність використання (юзабіліті), якість дизайну, якість сервісу.

Наявність акаунтів в соцмережах. Аккаунт повинен поповнюватися з якоїсь виразної періодичністю, наприклад, раз на тиждень.

Реклама сторонніх ресурсів. Якщо на вашому комерційному сайті є рекламні блоки Google Adwords або рекламної мережі «Яндекса», якісь розділи а-ля «корисні посилання» або спливаючі рекламні банери - все це оцінюється негативно.

Глава 10. Поведінкові чинники ранжирування сайтів

Сьогодні поведінкові фактори не менш важливі, ніж оптимізація сайту. І навіть важливіші, ніж контрольний фактор. Приблизно в середині 2010 року «Яндекс» відкрито анонсував призначені для користувача фактори (ПФ).

  • відвідуваність сайту / сторінки, в тому числі з джерел, відмінних від пошукових систем (type-in, переходи з інших сайтів і т. д.);
  • кликабельность сайту / сторінки по даному запиту в результатах пошуку - чим краще сниппет, тим вище CTR (clickthrough rate) і краще ПФ;
  • поведінку користувачів на сайті, глибину і тривалість переглядів, додавання в закладки, час на сайті і інші дії;
  • інші чинники, пов'язані з діями користувачів;
  • стабільну роботу сайту (хостингу).

Прямого способу впливу на ці фактори немає. Накручувати ПФ певною мірою безглуздо і навіть шкідливо, так як пошукові системи розпізнають цей і багато інших способів накрутки.

Апдейти ПФ явище рідкісне. Вони проходять не частіше разу на місяць, тому запасіться терпінням!

Сервіс «Яндекс.Метрика» і карта кліків дозволить побачити теплову карту кліків і карту кликабельности посилань (рис. 6).

Мал. 6. Теплова карта кліків

Глава 11. Асессорскіе фактори ранжирування сайту

Асесори, як правило, фрілансери: вони працюють з дому, оцінюючи сайти і навчаючи таким чином алгоритм MatrixNet. Вони є в кожному регіоні присутності «Яндекса». У Google вони теж є. Асесори вибирають випадкові запити з потоку для користувача запитів. Для оцінки обраного використовують спеціальні методики. На сьогоднішній день інтерфейс асессоров виглядає наступним чином (рис. 7).

Мал. 7. Інтерфейс асессоров

Існує шкала релевантності, згідно з якою виставляються оцінки (на рис. 7 на неї вказує стрілка):

  • Vital - однозначно на першому місці. Дуже часто це сайти брендів або «Вікіпедія»;
  • Useful - дає авторитетний, дуже повний і корисний відповідь на запит, наприклад, «Вікіпедія»;
  • Relevant + - в цілому сайт відповідає на запит;
  • Relevant має відношення до запиту, але в повній мірі на запит
  • не відповідає;
  • Irrelevant - не відповідає на запит.
  • На панелі є і додаткові оцінки:
  • 404 - сайт видає помилку 404;
  • «Вірус» - шкідливий код;
  • «Не про те» - сайт взагалі не відповідає заявленій темі.

Асесори не дають якісь конкретні оцінки вашого сайту. Вони не натискають чарівні кнопки, що переміщують сайт з першого місця на останнє і навпаки. Їх безпосередні завдання: оцінка якості пошуку, навчання MatrixNet.

[1] Я працюю в WordPress, який за замовчуванням тег title робить таким же, як і заголовок сторінки. - Прим. Багузіна

Ru/wp/?
Php=?
Php3?