- Класифікація заборонених методів просування сайту
- текстовий спам
- Фальсифікація поведінкових факторів
- висновок
Для того, щоб веб ресурс приносив віддачу (грошима, рекламою і т.д.) він повинен бути добре видно в інтернеті . А хорошу видимість йому забезпечує знаходження в ТОП-10 видачі пошукових систем. Для російських реалій це Гугл і Яндекс. Існує ціла наука з просування сайтів в цю заповітну десятку - пошукова оптимізація або SEO.
Просування сайту - захід тривалий і витратний. І часто виникає спокуса у деяких фахівців, які приблизно знають (або думають, що знають), як працюють алгоритми ранжирування сайтів у пошукових систем, обхитрити їх, просунувши опікуваний ресурс в ТОП швидко і дешево. Такі методи просування отримали назви заборонені або чорне SEO. Про покарання за їх використання ми поговоримо пізніше (а вони досить болючі), а зараз дамо їм класифікацію.
Класифікація заборонених методів просування сайту
Просування інтернет-ресурсу - це, по суті, робота з трьома складовими: контентом, посиланнями і поведінковими чинниками (ПФ). Тому і видів забороненого просування теж три:
- текстовий спам;
- фальсифікація поведінкових факторів.
- контрольний спам.
У першій частині цієї статті ми розглянемо текстовий спам і фальсифікацію поведінкових факторів.
текстовий спам
Контент - це основне, що є на сайті. По суті, будь-який сайт і цікавий саме своїм вмістом. Для 90% ресурсів основним контентом є текст. написати якісний текст , Що задовольняє сучасним вимогам пошукових систем - завдання складне і витратна. Тому для здешевлення на сайті розміщують текстовий спам - текст даремний або малокорисних для користувача, створений виключно для пошукових роботів.
Текстовий спам може бути декількох видів:
- Розміщення прихованого тексту (як правило, це набір потрібних ключових слів) - колір шрифту збігається з кольором фону сторінки.
- Написання тексту дуже дрібним шрифтом.
- Розміщення текстів, призначених окремо для пошукових систем і окремо для відвідувачів. Потім, в залежності від IP відвідувача (а у пошукових роботів є свої IP) сайт направляє його на потрібний варіант тексту. Знову ж варіант для ПС - це, частіше за все, просто набір ключів. Цей метод навіть має своє досить немилозвучну назву клоакинг.
- Створення тексту з підвищеною щільністю ключів - на даний момент основний метод текстового спаму.
Як бачите, текстовий спам - це текст, в якому або підвищена або позамежна щільність ключових слів. Просування з його допомогою - це вже кам'яний вік. По-перше, всі ці хитрощі ПС добре відомі і легко обчислюються. По-друге, і це найголовніше, зараз при оцінці якості тексту і його релевантності запиту проводиться, по суті, лінгвістичний аналіз. Крім того задіюються спеціальні технології. Наприклад, Яндекс застосовує технологію Матрикснет або метод машинного навчання. Суть її полягає в тому, що вручну (людиною) вибирається певна кількість текстів, про які точно відомо, що вони повною мірою релевантні певним вузькому класу запитів. І така ж кількість текстів, про які точно відомо, що це спам. Проводиться глибокий лінгвістичний аналіз і за спеціальними алгоритмами створюється формула ранжирування текстів саме для цього класу запитів. У формулі десятки тисяч коефіцієнтів! По суті, зараз комп'ютери можуть оцінити якість статті не гірше, ніж фахівець з тієї теми, якій присвячено текст.
Тому складати ТЗ, указуючи ключі, число їх входжень в прямій і непрямій формі, обмовляти, де саме вони повинні знаходитися (в першому абзаці, не ближче 2 слів від початку пропозиції і т. Д.) Здебільшого Безглуздо. А тим більше просто розміщувати на сторінці набір ключів. Яндекс і Гугл практично зі стовідсотковою ймовірністю визначать, спам перед ними або дійсно корисна для людей інформація. Визначать, і в деяких випадках (розміщення прихованого тексту, написання текстів окремо для роботів і людей) покарають зниженням позицій.
Тому акцентуємо увагу ще раз - просувати сайт за допомогою текстового спаму абсолютно безперспективно. Є інтернет ресурси в ТОП-10 за певним запитом, в яких немає взагалі точного входження цього ключа!
Фальсифікація поведінкових факторів
Пошукові системи, удосконалюючи свої алгоритми ранжирування, домагаються, щоб на перших позиціях стояли ресурси, найбільш корисні людям. І розробники цих алгоритмів розуміють, що якими б витонченими вони не були, найкраще якість і корисність контенту оцінить людина. Тому роль поведінкових факторів (ПФ) в ранжируванні сайтів стає дедалі більше. І, зрозуміло, з'являється спокуса з їх допомогою поліпшити позиції свого ресурсу.
Коли ПС вважає, що сайт корисний? Коли на ньому багато відвідувачів, і вони поводять там досить довгий час. Ось деякі власники сайтів і намагаються організувати на свій ресурс потік відвідувачів, які б на ньому виконували певні дії.
Але слід розуміти, що ПС для аналізу трафіку використовують все той же метод машинного навчання Матрикснет (у Гугл також є подібний інструмент). Тому з великою ймовірністю Яндекс і Гугл зрозуміють, реальні відвідувачі заходять на сайт або йде банальна накрутка.
Звичайно, в даному випадку ПС обдурити можна, якщо написати докладну інструкцію, де розписати які сторінки необхідно відвідувати, скільки на них залишатися, які рухи мишкою здійснювати і т. Д. Але, по-перше, необхідно її скласти, причому кілька (а скільки і невідомо) варіантів. Адже якщо ПС виявить, що досить велика кількість відвідувачів несподівано мають практично ідентичне поведінка на сайті, то цілком можливо це також буде вважатися накруткою. А по-друге, замовляючи таку витончену накрутку, де гарантія, що все будуть цієї інструкції слідувати? Персонально кожної людини таки не проконтролюєш!
А якщо сайт був викритий в накрутці, то покарання дуже суворе - сильна песимізація на термін від 8 місяців! Так чи варто ризикувати? Тим більше, що ймовірність виявлення дуже величезна ?! Це стосується і всіляких програм, які імітують дії відвідувачів. Їх ПС також обчислюють.
Про те, що сайт потрапив під санкції за накрутку дуже легко побачити. Трафік на нього спадає різко і в рази.
До речі, за допомогою сервісу SE Ranking ви можете аналізувати позиції в зв'язці з трафіком, який вони приносять.
Говорячи про накрутку, неминуче виникає питання про конкурентів. Адже що заважає їм створити явно фейковий трафік на ваш сайт з метою, щоб його забанили мінімум на 8 місяців?
Представники Яндекса і Google стверджують, що вони можуть відрізнити дії веб-майстри, який намагається поліпшити ПФ для свого сайту від дій його конкурентів, і просто не приймають їх до уваги. Будемо сподіватися, що це так.
висновок
Сучасні методи статистичного аналізу і машинного навчання дозволяють з дуже великою ймовірністю відрізнити дії, спрямовані лише на просування сайту від тих, які виконуються для поліпшення якості сайту. Тому в сучасних реаліях користуватися забороненими методами просування абсолютно невиправдано.
У другій частині статті ми розповімо про посилальному спам, який в даний час є найпопулярнішим забороненим способом просування сайту.
Перегляди 1 501
Коли ПС вважає, що сайт корисний?А по-друге, замовляючи таку витончену накрутку, де гарантія, що все будуть цієї інструкції слідувати?
Так чи варто ризикувати?
Тим більше, що ймовірність виявлення дуже величезна ?
Адже що заважає їм створити явно фейковий трафік на ваш сайт з метою, щоб його забанили мінімум на 8 місяців?