Дублирование контента на сайте
Привет, дорогой читатель! И снова с вами Блог Генка!
После вышеизложенных тем сегодня стоит поговорить о том, как предотвратить дублирование контента на сайте?
Поисковая система считает своим долгом предоставлять пользователям только качественную и только оригинальную информацию. Мнение поисковиков - если человек какую-то статью прочитал на каком-то сайте (блоге), то он уже не будет ту же самую статью читать на других сайтах, а значит, ссылки на такие статьи в результатах поиска показывать и не стоит. Ну, а если и показывать, то очень глубоко в выдаче, куда может добраться только самый терпеливый пользователь. А это значит, что если будет много дублированного контента на сайте, тех же статей, которые где-то уже опубликованы и известны поисковым машинам, то трафика на ваш сайт будет очень и очень мало. Поисковики не только задвигают такие ссылки в самый конец выдачи, но и накладывают фильтры. То есть ваш сайт (блог) целиком может быть понижен в результатах поиска. Может быть он и хороший, может там много всего интересного, но он может оказаться не в ТОПе, а где-то на сотом результате выдачи, только из-за того, что у него есть такой неоригинальный контент. Особенно сильно поисковые системы наказывают за повторение контента в пределах одного сайта (блога).
К примеру, возьмем любой сайт на wordpress, где на главной странице находятся анонсы статей (отрывок постов). Если мы перейдем на всю страницу статьи, нажав «дальше», то мы естественно увидим тот же отрывок статьи в описании снова. А это уже идет дублирование контента на сайте, хотя и не точное, потому что здесь отображается дополнительная информация статьи. В конце статьи есть рубрики и теги, там тоже отображается отрывок статьи, а это уже считается дублированием статьи. В архиве, в комментариях тоже отображается какие-то фрагменты статьи. Есть еще разные варианты, где отображаются небольшие отрывки статьи.
Как запретить дублирование контента на сайте
Чтобы избежать наказания от поисковых систем за дублированный контент и продвинуть сайт в ТОП, нужно перед индексацией контента просто напросто запретить видеть поисковым машинам те страницы, где есть такой дублированный контент на сайте, то есть, чтобы для них он просто не существовал, а раз они его не видят, значит и не будет наказаний. В идеале поисковикам нужно показывать всю страницу с контентом, а там где есть фрагменты текста статьи, показывать не стоит. Это делается с помощью обычного текстового файла robots.txt, который читают все боты поисковых систем. Вот в этом файле и нужно указать - какие страницы, какие папки и категории видеть поисковикам не позволительно. Выглядит он примерно вот так:
Вот такой вот файл нужно создать и поместить в корне вашего сайта. Таким образом, вы избежите наказания за дублированный контент и позиции вашего сайта (блога) в поисковых системах станут более приятными.
В конце нашего разговора как всегда очередной незабываемый ПАЗЛ:
Не забывайте делиться интересной информацией с друзьями и высказывать свое мнение в комментариях.
На сегодня это все. Желаю удачи в ваших делах. Пока, пока.
С Уважением, Геннадий Ольховский
Ой, совсем забыл, вот ещё интересное в блоге:
... и это тоже полезная информация:
Не получилось поймать? Не беда - начните сначала!

Добавить комментарий