Внутренняя оптимизация страниц веб-сайта
2
Прошлый раз, в статье про внутренние факторы оптимизации, мы начали рассматривать основные составляющие работы над структурой сайта. В настоящей публикации мы продолжим изучать не затронутые ранее методы.
Внутренняя оптимизация страниц — важна каждая мелочь!
Внутренняя «отшлифовка» страниц под поисковые системы позволяет сделать страницу более релевантной, тем самым улучшить позиции сайта по заданным ключевым запросам в выдаче. Однако не стоит забывать, что сайт создан в первую очередь для людей! Это важный принцип, но нужно понимать, что именно поисковики приводят к вам посетителей. В последующем посетители могут превратиться в читателей, покупателей, деловых партнеров. Грамотная внутренняя оптимизация позволяет сделать сайт качественным для роботов поисковым машин, но не во вред восприятию контента посетителями. В общем нужно угодить всем 🙂
Факторы оптимизации сайта
Sitemap.xml — представляет собой карту всех страниц сайта. Для каждой страницы указывается приоритет (на сколько она важна, по шкале от 0 до 1), а также дата последнего обновления. Позволяет упростить сканирование ресурса и показать всю структуру наглядно, как на ладоне. Важно постоянно обновлять. Выставите приоритетность для главных страниц равной 1, для остальных по понижающей с шагом от 0.1 до 0.2, но не нужно для всех устанавливать одно значение — всегда есть более важная информация. Современные CMS системы позволяют при помощи определенных плагинов автоматически составлять карту сайта. Также существует множество интернет проектов, способных упростить данную задачу.
robots.txt — файл инструкций, главной целью которого является указание правил для скан-пауков той, или иной поисковой системы. Простыми словами — что нужно сканировать, а что необходимо закрыть от посторонних глаз. К примеру robots.txt вида:
User-agent: * Sitemap: https://tekseo.su/sitemap.xml host: tekseo.su |
говорит о следующем:
«User-agent: *» — применяет все ниже перечисленные инструкции для всех поисковых систем (об этом говорит * ). Если же заменить звездочку фразой «Yandex», то правила будут действовать только для обозначенного робота.
«Sitemap: https://tekseo.su/sitemap.xml» — указывает нахождение карты сайта. Подробнее о назначении уже говорилось чуть выше.
«host: tekseo.su» — говорит о главном зеркале ресурса. Необходим для корректного присвоения показателя ТИЦ. Часто употребляется для передачи Яндекс ТИЦа на новые домен ресурса.
.htaccess — данный файл позволяет осуществить множество действий для внутренней оптимизации страниц, среди которых: сделать ЧПУ, склеить URL с WWW и без, склеить отсутствие слеша с его наличием, убрать не нужный URL и расширение главной страницы, а также прочие важные, но не столь интересные для нас моменты.
Внимание! Бесплатные хостинг поставщики по умолчанию не поддерживают работу .htaccess. Также данный файл может быть отключен в настройках. Проверьте работоспособность файла опытным путем — загрузите его в корневой каталог ФТП и введите имя вашего сайта с WWW, затем без него. Если URL не изменился, значит пора начать нервно курить. Свяжитесь с хостером — скорей всего проблема разрешится.
Рассмотрим стандартный код хтаккесса:
Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} ^www.tekseo.su RewriteRule (.*) https://tekseo.su/$1 [R=301,L] RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.php\ HTTP/ RewriteRule ^index\.php$ https://tekseo.su/ [R=301,L] RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_URI} !(.*)/$ RewriteRule ^(.*)$ /$1/ [R=301,L] |
Данный код позволяет сразу решить несколько задач:
— склеить tekseo.su с www.tekseo.su , где главным доменом является без WWW
— перенаправлять при наборе URL tekseo.su/index/.php на tekseo.su
— убрать автоматически из адреса вида tekseo.su/ последний слеш и в результате получить tekseo.su
Итак, мы получили чистый URL адрес главной страниц и склеили все страницы с WWW и без него, что позволит исключить дублирование контента, а также растекание внутреннего веса (траст, Пр и прочие).
Страница 404 — создана с целью указания, что введенный URL набран не правильно и страницы по этому адресу не существует. Битые урлы появляются со временем — если страница была удалена, при ошибочном указании не верной страницы. Также удерживает посетителя на сайте. Не стоит автоматически указывать в качестве редиректа главную страницу — этого не любят поисковики. Используйте стандартные средства хостера, которые вместе со страницей выдают 404 код, а не рабочую версию.
Навигация/Меню. Внутренняя оптимизация страниц не обходится без правильного составления меню. Во первым меню является статичным для всех страниц, во вторых вес ссылок максимален, ну и в третьих они являются самыми посещаемыми (в большинстве случаев). Необходимо при возможности делать ссылки меню с помощью PHP/HTML языка. Если это проблематично, то можно повторить разделы в подвале (нижней области ресурса) при помощи PHP языка.
Хлебные крошки — официальное название от Яндекса активной ссылочной структуры переходов по сайту. К примеру если мы зайдем на главную страницу, затем в раздел новости и откроем к примеру «новинки автопрома», то в данной статье в верхней части будет отображаться «главная->новости->новинки автопрома». При этом все разделы в хлебных крошках будут кликабельны. Это удобно как посетителям, так и собственно поисковым системам. Структура становится более наглядной.
Закрытие ссылок от индексации необходимо для исключения рекомендации стороннего не качественного сайта. Развею старый миф — вес утекает по ссылке всегда(и при закрытии, и при редиректе), но в меньшей степени и в безопасное русло. Мы теряем меньше, чем могли в случае с прямой ссылкой.
Закрытие коды и не нужного текста. При внутренней оптимизации необходимо также закрыть не нужны код (программный, модульный), который лишь отодвигает главный текст ниже и способен несколько навредить в некоторых случаях (если используется 1 пиксельная картинка или не корректное отображение/форматирование по средством языка программирования). Исключить все это безобразие можно при помощи noindex тега.
Подытожим
Внутренняя оптимизация страниц сайта позволяет не только придерживаться правил поисковых систем, но также сделать прибывание посетителей максимально удобным, что повлияет на глубину просмотра, а также на проведенное время — т.е. на поведенческие факторы. Оптимизируйте сайт грамотно!
Tweet |
Очень много узнал. Респект. Продолжай писать!
Надо еще следить за копирайтами разработчика, который сделал ваш сайт, и даже отдельные плагины. А то некоторые хитромудрые деятели пихают в код сквозные скрытые ссылки — мало того, что вес течет со всех страниц, так еще и черное СЕО, считай, можно крупно попасть.