Дублирование контента
Довольно часто на пути вебмастера может стать такая проблема как дублирование контента. Поисковики довольно отрицательно могут относиться даже к частичным дублям страниц.
Довольно часто на пути вебмастера может стать такая проблема как дублирование контента. Поисковики довольно отрицательно могут относиться даже к частичным дублям страниц. Это можно объяснить тем, что на индексацию "дублей" требуется довольно много дополнительных ресурсов.
На продвижении молодых веб-сайтов очень плохо сказывается копирование материалов с других сайтов. Так как часто не представляется возможным определить первоисточник, поисковые системы по умолчанию отдают право более трастовому сайту называться первым. Дублированный контент более молодого ресурса будет демонстрироваться в поисковой выдаче на менее выгодных позициях.
Итак, уникальный контент - это одно из необходимых условий продвижения сайта в поисковых системах. Но даже собственноручно написанные статьи не избавят вас от проблемы дублирования контента. Материал может дублироваться и в пределах одного веб - сайта.
Внутри сайта дубли могут возникать из-за сквозных рекламных или навигационных блоков. Не всегда верным решением является запрет их индексации, особенно в случаях, когда они нужны для перелинковки страниц. Решение довольно простое - контент на сайте должен объемным, чтобы повторяющиеся блоки не влияли на уникальность страниц.
Еще один источник дублей - это служебные страницы, ленты rss, дубли контента, которые создают CMS (особенно Вордпресс). Решить эту проблему можно запретив индексацию определенных типов страниц в файле robots.txt. Веб мастерам, чьи сайты, сделаны на Вордпресс, я советую пользоваться плагином, который называется All in One SEO Pack. Этот плагин позволяет не только настраивать мега теги description, keywords и title, но и в заголовок страниц вписывать тег Canonical, который направляет поисковик на основную страницу и запрещает дубли к индексации .
Есть еще один неприятный момент в дублировании в интернет рекламе - веб-сайт, доменное имя которого начинается с WWW и без www. Мы понимаем, что это один и тот же веб - сайт. Но роботы поисковых систем могут решить, что на самом деле это два разных сайта. И за дублирующий контент могут один из них понизить в выдаче. Даже если вам удастся этого избежать, все равно ссылки с прописанной аббревиатурой WWW и без нее, ведут как бы на два совершенно разных сайта. Т.о. вы продвигаете вместо одного два сайта, затрачивая при этом в два раза больше средств и усилий. Чтобы этого избежать, нужно правильно оформить файл .htaccess. В нем нужно прописать сецкод для склейки 2-х доменов в один. Для поисковой системы Яндекс так же нужно оформить файл robots.txt,. Где указать какой вариант главный.
Устранив вовремя проблему дублирования контента на своем сайте, вы добьетесь более значимых результатов в поисковом продвижении.
Публикации по теме:
Для добавления комментария надо зарегистрироваться и авторизоваться.
Добавить комментарий можно после авторизации через Loginza.