Часть вебмастеров считает, что внутренняя оптимизация состоит из двух частей:
- Расстановка ключевых слов на странице
- Внутренняя перелинковка страниц сайта между собой
Такое мнение весьма поверхностно. В реальности, для эффективной оптимизации ресурса нужно настроить очень много разных элементов.
Один из таких элементов - это файл Robots.txt. Обычный текстовый файл, который содержит директивы (команды) для поисковых роботов, посещающих ресурс.
Благодаря командам, находящимся в этом файле все роботы знают куда им ходить нужно, а куда не рекомендуется. Особенно важна правильная настройка данного файла для сайтов со сложной структурой и там, где особенность работы системы управления контентом формирует много разных страниц (как нужных, так и не очень).
Wordpress является типичным представителем CMS, формирующее много лишнего. Поэтому, для данной системы обязательно нужно заполнять роботс.txt, иначе, высоки риски получить штрафные санкции от поисковиков.
В сети гуляет множество примеров данного файла, повторяющих типичные ошибки. В частности, многие вебмастера любят дублировать блоки директив для разных поисковых систем, хотя это лишь увеличивает размер файла, другого эффекта не приносит.
Впрочем, давайте перейдем к составлению правильного файла Robots.txt. для Wordpress, там же рассмотрим и примеры - http://dmitriyzhilin.ru/fajl-robots-txt-dlya-bloga-na-wordpress-primer/
Это интересно
0
|
|||

Последние откомментированные темы:
-
Лучший чат-бот с искусственным интеллектом - какой из них вам подходит?
(1)
boris 1
,
13.01.2022
-
Новогоднее украшение рабочего стола ПК
(1)
Елена2022
,
21.12.2021
-
Как JPG преобразовать в Word с распознаванием текста
(1)
Olejaweb
,
13.11.2021
-
Как вернуть классическое ленточное меню в проводник Windows 11
(1)
Сергей Михайлов сын
,
26.10.2021
20251120065003