Сделайте SEO самостоятельно: техническое SEO

  1. Скорость страницы
  2. HTTPS
  3. Адаптивный дизайн
  4. Возможность сканирования и индексирования
  5. robots.txt
  6. Meta Robots
  7. Внутренняя ссылка
  8. Sitemaps
  9. бюджет Crawl
  10. Специальная тема: сканирование JavaScript, AJAX и динамических сайтов
  11. переадресовывает
  12. Избегайте неработающих ссылок
  13. Канонические теги, дубликаты контента
  14. URL-адрес
  15. Конфигурация сервера
  16. вывод

Техническая поисковая оптимизация или короткое Техническое SEO гарантирует, что контент веб-сайтов может быть извлечен как поисковыми системами, так и пользователями быстро и оптимальным способом Техническая поисковая оптимизация или короткое Техническое SEO гарантирует, что контент веб-сайтов может быть извлечен как поисковыми системами, так и пользователями быстро и оптимальным способом.

В дополнение к содержанию, технический SEO также играет решающую роль для размещения в результатах поиска. Лучший контент бесполезен, если Google не может получить его, поэтому он может сканировать и индексировать. Также важно, чтобы контент отображался быстро и оптимально для каждого устройства.

Другим аспектом является безопасность данных: если веб-страница может быть получена через HTTPS, передача данных зашифрована, так что чтение или манипулирование данными третьими лицами становится более сложным.

В следующих разделах описывается, как технически оборудовать веб-сайт, чтобы он был легко и безопасно доступен как для Google, так и для пользователей. Это может окупиться в виде довольных пользователей и лучшего рейтинга.

Скорость страницы

Время загрузки веб-сайтов является фактором ранжирования в Google. Имейте в виду, что не самая важная вещь, но все же длительность до полного появления страницы в браузере может иметь решающее значение, независимо от того, указана ли она на страницах результатов поиска перед соревнованиями или за ними.

Google рекомендует время загрузки максимум три секунды - каждая дополнительная секунда, вероятно, приведет к потере пользователей, которые отвернутся разочарованные и ищут альтернативы.

Существует большое количество факторов, которые могут повлиять на время загрузки. Вот некоторые из ключевых влияющих факторов:

  • Используемая система управления контентом (CMS) . В зависимости от того, используете ли вы WordPress, Joomla, Drupal или другие системы, передача данных и структура страниц могут иметь различную длину. В отличие от веб-сайтов, которые используют чистый HTML, большинство CMS основаны на языке программирования PHP. При запросе веб-страницы отображаемый HTML-код сначала генерируется динамически, а PHP также обращается к базе данных. Конечно, этот процесс занимает больше времени, чем просто передача и отображение готового HTML-кода статической страницы.
  • Используемые расширения: Если плагины используются для CMS, такой как форум, слайд-шоу или комментарии, необходимо перенести дополнительные данные. Кроме того, расчет страниц занимает больше времени. Следовательно, следует критически изучить и задать вопрос, все ли используемые расширения действительно необходимы.
  • Кэширование и сжатие. Кэширование данных в браузере пользователя гарантирует, что определенные файлы, такие как изображения, JavaScript и CSS, необходимо передавать только один раз. При следующем посещении веб-сайта браузер обращается к локальному хранилищу, что экономит время. Сжатие происходит перед передачей данных. Затем на компьютере пользователя данные снова распаковываются, поэтому объем передаваемых данных ниже.
  • Использование сети доставки контента (CDN). CDN - это сеть географически распределенных серверов. Если пользователь получает доступ к веб-странице, которая подключена к CDN, запрос выполняется не на фиксированном сервере, а на сервере, который может ответить быстрее всего. Кроме того, серверы в CDN хранят определенные данные в кэше и, следовательно, доставляют быстрее. CDNs предлагаются многими хостерами и могут быть добавлены к существующим пакетам - часто бесплатно.
  • Изображения, видео и другие медиафайлы. Если на веб-странице необходимо загружать большие изображения, видео с высоким разрешением или даже аудиофайлы, это также может происходить за счет времени загрузки. Поэтому, например, встроенные изображения всегда следует проверять на возможность оптимизации: можно ли уменьшить размер файла? Есть подходящие инструменты, такие как Tiny PNG, JPEG Optimizer или Compress.photos. Видео не обязательно должно запускаться на их собственном сервере, но также может быть загружено на YouTube, например. Оттуда вы можете вставлять видео через iFrame.
  • Сервер: Здесь есть большой потенциал для оптимизации. Небольшой хостинг-пакет с сервером, которым вы должны поделиться со многими другими веб-сайтами, конечно, менее мощный, чем отдельный сервер или даже распределенная система из нескольких серверов, которые управляются балансировщиком нагрузки. Специально для сайтов с большим количеством посетителей стоит задуматься над тем, чтобы вложить в инфраструктуру немного больше денег.

HTTPS

Безопасная передача данных в сети сегодня важнее, чем когда-либо. В частности, если речь идет о конфиденциальных пользовательских данных, передача должна быть зашифрована. Это относится в обоих направлениях, то есть как от клиента к серверу, так и наоборот.

Простейшим методом шифрования является использование безопасности транспортного уровня (TLS). Каждый распознает веб-страницы с этой технологией на «HTTPS» в URL-адресах. Обязательным условием является соответствующий сертификат сервера. Большинство хостинг-провайдеров по умолчанию используют TLS или HTTPS в программе, часто без дополнительных затрат.

Google уважает это, потому что долгое время компания пропагандирует безопасность данных в сети. Веб-сайты, использующие HTTPS, могут выиграть от лучшего рейтинга.

Но не только рейтинги говорят о HTTPS: даже современные браузеры, такие как Firefox или Chrome, поддерживают эту тенденцию, отмечая незашифрованные страницы как небезопасные. Это может отпугнуть посетителей сайта.

Адаптивный дизайн

Адаптивный дизайн - это метод, который обеспечивает оптимальное отображение веб-сайтов на настольных компьютерах, ноутбуках, смартфонах и планшетах. Это достигается путем скрытия, сокрытия или масштабирования определенных элементов веб-страницы. В результате тексты также можно читать на экранах меньшего размера, ссылки и кнопки достаточно велики, чтобы ими можно было управлять пальцем, а картинки адаптировались к доступному пространству.

Большим преимуществом адаптивных веб-сайтов дизайна является то, что необходимо поддерживать только один вариант - в отличие от веб-сайтов, которые имеют отдельный мобильный вариант.

Особенно в отношении предстоящего Изменить на новый индекс Google Желательно переключить сайты на адаптивный дизайн, потому что в будущем факторы мобильного ранжирования будут на переднем плане (вместо сигналов настольной версии, как раньше).

Но Google уже поощряет сайты, которые удобны для мобильных устройств, с лучшим рейтингом. Независимо от того, классифицирует ли Google веб-сайт как удобный для мобильных устройств или нет, вы можете с помощью Для мобильных устройств Тест попробовать.

Для большинства систем управления контентом сегодня существуют шаблоны, отвечающие требованиям Responsive Design. Поэтому усилия по изменению ограничены.


Возможность сканирования и индексирования

Чтобы веб-страница отображалась в результатах Google, Google должен иметь возможность сканировать и индексировать ее. При сканировании так называемый сканер, робот Google, посещает страницы и фиксирует их содержимое и ссылки. Затем ссылки используются для сканирования дополнительных страниц. По этой причине оптимизированная структура внутренних ссылок так важна.

По этой причине оптимизированная структура внутренних ссылок так важна

Индексирование - это следующий процесс: Google записывает данные, найденные при сканировании, после первого просмотра в своего рода базу данных, индекс Google. Он содержит много полей и критериев, которые впоследствии решают, может ли страница отображаться в результатах поиска.

При сканировании и индексации многое может пойти не так, поэтому необходимо создать все предпосылки, чтобы для Google было как можно меньше барьеров.

robots.txt

Файл robots.txt содержит информацию о том, какие страницы и какие ресурсы веб-страницы могут быть получены различными сканерами. По сути, вы можете думать о robots.txt как о простом списке операторов «Вы можете» и «Вы не можете». Все, что помечено как «разрешено», может быть восстановлено - все, что помечено как «запрещено», запрещено. Контент, который не помечен как «разрешить» или «запретить», также может быть сканирован.

При работе с robots.txt важно следить за тем, чтобы не было случайно заблокированных страниц, которые действительно должны попасть в индекс Google. Заявление как

запретить: /

Например, это гарантирует, что все страницы заблокированы.

Кроме того, убедитесь, что все важные ресурсы, такие как папки изображений, каталоги JavaScript и CSS, доступны сканерам, поскольку они необходимы для визуализации (вычисления) страницы. Google был в состоянии сделать это в течение длительного времени.

Есть несколько способов проверить это в консоли поиска Google: однажды в разделе «Сканирование» в «Robots.txt Tester» и в разделе «Индекс Google» в разделе «Заблокированные ресурсы».

Meta Robots

Оператор Meta-Robots - другими словами, файл robots.txt - не контролирует в первую очередь сканирование, но и индексацию. Вы можете найти мета-роботов в исходном коде HTML в области <head>. Они имеют следующую форму:

<meta name = "robots" content = "index | noindex, follow | nofollow" />

Первая часть, то есть «index» или «noindex», сообщает Google, следует ли проиндексировать данную страницу. Вторая часть, «follow» или «nofollow» - это утверждение, которое определяет, должен ли робот Google следовать ссылкам, найденным на странице, или нет.

Если нет веской причины не допускать страницу в индекс Google, вы всегда должны указывать в качестве значения «index, follow». Тем не менее, могут быть случаи, когда может быть целесообразным переключиться на «noindex», например, когда речь идет о страницах, которые не обеспечивают дополнительную ценность для пользователей поисковой системы.

Внутренняя ссылка

Как указывалось ранее, хорошо структурированные внутренние ссылки могут упростить сканирование Google. Вы всегда должны начинать с иерархической структуры, где есть несколько страниц на верхнем уровне и больше страниц на нижних уровнях. Например, веб-страница имеет домашнюю страницу, которая дает вам доступ к различным категориям. Каждая из этих категорий в свою очередь имеет несколько подкатегорий, так что у вас уже есть много страниц на этом уровне. Каждая подкатегория имеет определенное количество подстраниц или целевых страниц.

Последовательное связывание категорий, подкатегорий и целевых страниц повышает шансы, что Google сможет захватывать и сканировать все страницы. Также для Seitenbsucher создает логически продуманную внутреннюю ссылку, улучшающую обзор.

Эту конструкцию можно дополнить перекрестными ссылками в одном слое, например, между целевыми страницами, связанными с темой.

Эту конструкцию можно дополнить перекрестными ссылками в одном слое, например, между целевыми страницами, связанными с темой

Sitemaps

В дополнение к упорядоченным внутренним ссылкам, Sitemaps может помочь сканировать Googlebot. В этих файлах перечислены все важные URL-адреса, чтобы Google мог легко получить к ним доступ один за другим.

Карты сайта XML всегда должны быть актуальными. Если страницы удаляются, изменяются или воссоздаются, это должно быть отражено в файле Sitemap.

Кстати, есть несколько типов файлов Sitemap, которые вы можете отправить в Google, включая изображения, видео и новости. Последние зарезервированы для сайтов, перечисленных в Новостях Google.

Большинство систем управления контентом предоставляют возможность создавать файлы Sitemap либо по умолчанию, либо по расширению.

бюджет Crawl

Многое обсуждается и всегда стоит того, чтобы внести свой вклад, так называемые бюджет Crawl у кого есть сайт в гугле. По сути, это количество страниц, которое робот Google может или хочет получить за определенный промежуток времени.

Вы не можете напрямую влиять на бюджет сканирования, но вы можете принять меры, чтобы получить больше страниц от Google. Прежде всего, важно иметь короткое время ответа от сервера, потому что, как только Google распознает, что у сервера есть проблемы с ответом на запросы, скорость сканирования снижается.

Другие факторы, которые влияют на бюджет сканирования:

  • Фасетную навигацию и идентификаторы сеансов в URL-адресах. Фасетную навигацию можно найти, например, в онлайн-магазинах, где можно назвать разные варианты для продуктов (размер, цвет и т. Д.). Различия между отдельными страницами продукта очень малы.
  • Мягкие ошибки: это страницы, которые можно получить, но не предоставляют нужный контент. Тем не менее, они возвращают HTTP-статус 200 для «ОК».
  • Взломанные страницы. Манипулированные и взломанные страницы, следовательно, приводят к сокращению активности сканирования Google.
  • Дублированный контент. Если Google обнаружит, что контент дублируется на веб-странице, это также может уменьшить сканирование.
  • Ухудшенный контент и спам: смотрите взломанные страницы.
  • Бесконечные пробелы. Если на веб-сайте будет найдено много URL-адресов с небольшой добавленной стоимостью, Google подтвердит их в форме ограниченного сканирования.

Специальная тема: сканирование JavaScript, AJAX и динамических сайтов

Особые проблемы возникают при сканировании динамических веб-сайтов и так называемых одностраничных приложений. В отличие от традиционных веб-сайтов, они ведут себя больше как приложение и в основном состоят из одной страницы, которая выглядит по-разному в зависимости от взаимодействия с пользователем.

Долгое время Google ничего не мог поделать с таким контентом. Поэтому было необходимо предоставить так называемый «снимок» для поисковых систем - то есть статическое изображение различных состояний, которое затем можно было сканировать.

Тем не менее, Google теперь может интерпретировать и выполнять JavaScript. Подробности в этом Статья Артура Коща найти.

Чтобы проверить, как веб-сайт на основе JavaScript представляется Googlebot, вы можете использовать функцию Fetch as Google в консоли поиска Google.

Также рекомендуется SEO инструмент «Кричащая лягушка» - в настоящее время это один из немногих инструментов для интерпретации и выполнения JavaScript.


переадресовывает

Перенаправления или перенаправления являются постоянной темой для SEO. Когда какие перенаправления будут необходимы, когда они будут лучше прекращены? Перенаправление приведет к переходу на другой URL при вызове URL, например, www.example.com/page1.html, например, на www.example.com/page2.html.

Перенаправления важны, чтобы не потерять просмотр старых страниц или URL-адресов и отправить их в новое место назначения. Существующие обратные ссылки также могут быть сохранены путем использования перенаправлений.

Он полностью свободен в выборе направления переадресации: Вы также можете обратиться к совершенно другому домену.

Ниже приведен обзор наиболее важных типов перенаправлений:

  • 301 перенаправление: это постоянное перенаправление
  • 302-Перенаправление: временная переадресация
  • 303-Redirect: «см. Другое» - если этот ответ происходит после вызова, запрашивающий клиент направляется в другой ресурс («URI»).
  • 304-Redirect: «не изменено» - передача не требуется, поскольку запрошенный ресурс не изменился с момента последнего вызова.
  • 305-Redirect : «использовать прокси» - запрашиваемый ресурс доступен только через прокси.
  • Редирект 307: «временный» - аналог редиректа 302

Для постоянных изменений, например, когда веб-страница перемещается в новый домен, следует использовать перенаправления 301.


Избегайте неработающих ссылок

Нерабочие ссылки - это ссылки, которые указывают на страницы или URL-адреса, которые больше не существуют. Это могут быть внутренние или внешние неработающие ссылки.

Для посетителей веб-сайтов и поисковых роботов неработающие ссылки непривлекательны, поскольку они ведут в тупик. По этой причине вам следует регулярно проверять свой веб-сайт, чтобы убедиться, что все ссылки по-прежнему работают. Если битые ссылки найдены, вы должны изменить или удалить их.

Канонические теги, дубликаты контента

Канонические теги и дублированный контент тесно связаны. Дублированный контент создается, когда одна страница доступна по нескольким URL-адресам, например, с и без «www». Это может привести к тому, что Google будет индексировать несколько вариантов страницы с разными URL-адресами. Таким образом, эти разные варианты будут конкурировать друг с другом за рейтинг на страницах результатов поиска, что может оказать негативное влияние.

В качестве решения проблемы с дублированным контентом можно предложить так называемые Canonicals: их можно использовать для определения того, какой URL Google должен использовать, когда страница доступна по разным URL. Для этого такой тег должен быть включен на каждой из затронутых страниц:

<link rel = "canonical" href = "https://example.com/mainpage">

Google будет индексировать только один URL за раз.

URL-адрес

URL-адреса должны использоваться без дополнительных параметров, если это возможно, потому что это создает возможность дублирования контента (см. Предыдущий раздел). Если возможно, следует избегать пробелов и подчеркиваний в URL. Кроме того, URL-адреса не должны быть слишком длинными, поскольку это затрудняет обработку и распространение URL-адресов, например, в социальных сетях.

Важно: целевые ключевые слова, по которым страница должна иметь рейтинг, должны появиться в URL-адресе страницы. Хотя это незначительно влияет на рейтинги, оно может быть полезным в случае сомнений. Структура URL-адресов должна соответствовать иерархии страниц, то есть отображать отдельные уровни веб-страницы.

Например: www.example.com/category/subcategory/landing-page.html

Конфигурация сервера

Технически, безусловно, наиболее требовательным и рекомендуемым только для технически продвинутых является ручная настройка сервера, на котором работает веб-сайт.

В зависимости от того, какой хостинг вы забронировали, возможны разные варианты. Те, у кого есть собственный сервер, являются наиболее гибкими и могут свободно выбирать, какое программное обеспечение устанавливать. Важны операционная система, используемая на сервере (Windows или Linux), используемая версия PHP и база данных.

Существуют дополнительные параметры конфигурации в отношении кэширования содержимого, такого как изображения, JavaScript и CSS, а также выбора того, должны ли данные быть сжаты перед передачей или нет.

Менее гибкие пакеты хостинга, когда вам приходится делить сервер со многими другими сайтами и, следовательно, меньше влиять на конфигурацию. Но и затраты на обслуживание ниже. Для небольших сайтов таких пакетов обычно достаточно.

Промежуточным решением являются пакеты «Управляемый сервер»: здесь хостер предоставляет некоторые основные задачи, такие как обновление существующего программного обеспечения. Тем не менее, у клиента есть много возможностей для адаптации системы к своим потребностям.

вывод

Техническое SEO - это задача, которая должна обеспечить максимально плавную, удобную и безопасную работу веб-сайтов. Эти действия только частично связаны с SEO, потому что в первую очередь это касается пользователей. Тем не менее, такие усилия, как использование HTTPS и короткое время загрузки, вознаграждаются Google за сравнительно лучший рейтинг.

Фото на обложке © maciek905 - Fotolia.com

com

из Кристиан Кунц

SEO эксперт. Вам нужен совет для вашего сайта? щелчок здесь ,


Дисплей Clixado

Публикации статей в сильных журналах и блогах

Мы сотрудничаем с бесчисленным количеством издателей и блоггеров и поэтому можем предложить статьи в более чем 4000 блогах практически на все темы:

    - Устойчивое создание ссылок, нет SEO сети
    - Значения высокой видимости, нет просроченных доменов
    - Единовременный платеж, без контракта

Для каждой публикации статьи мы создаем высококачественный контент, содержащий не менее 400 слов, и публикуем статью с помощью ссылки DoFollow на вашу страницу в журнале или блоге по вашему выбору.

Спросите нас без обязательств для примеров




Поэтому, например, встроенные изображения всегда следует проверять на возможность оптимизации: можно ли уменьшить размер файла?
Когда какие перенаправления будут необходимы, когда они будут лучше прекращены?
Вам нужен совет для вашего сайта?