Xtool - сервис по определению траста сайта (xt) в Яндексе. Алгоритм траста xt предназначен для анализа способностей страницы(сайта) как донора. Также хорошо определяет видимость любого сайта в поисковых системах

SEO сервисы
26 Август

Дубли страниц – что это?

Автор: Westblogger, 2012 год. 176

Дубли страниц этоВот решил немного написать про дубли страниц, про которые многие говорят что они вредны, но как их определить и вообще что это такое, никто не рассказывает. Поэтому в этой статье я постараюсь ответить на вопросы – что такое дубли страниц и как с ними бороться.

На самом деле дубли страниц важны только для поисковых систем – они мешают им адекватно оценивать и ранжировать сайт. Дубль страницы в классическом смысле – это две абсолютно идентичных или практически ничем не отличающихся страницы.

Как я уже когда-то говорил, в WordPress таких дублей страниц много, но я немного ошибался – все категории, метки, архивы по месяцам – это все же нечеткие дубли, так как сами по себе страницы отличаются, но контент на таких страницах используется практически один и тот же. И я советовал и советую закрывать такие странички от индексации, оставляя только категории или метки или архивы.

Зато полные дубли могут встречаться при создании пагинации – это когда постраничное разбиение вылезает за реально существующие странички. Так например, если разбивающих страничек 5, с урлом ?paged=5, то робот может пойти дальше и найти ?paged=6,7,8 и т.д. Я уже сталкивался с таким, и этот баг в вордпресс сразу надо фиксить.

Средства борьбы с дублями традиционны. Cамый надежный – это 301 редирект с помощью .htaccess в случае если странички(дубли) полностью или почти полностью идентичны и 404 ошибка, если дубли нечеткие (но их можно и оставить на индексацию, полной уверенности в карательных санкциях в этом случае нету). Также можно использовать тег canonical и в меньшей степени robots.txt

Ну а если вы не можете разобраться в том, почему windows 7 не пускает в систему, то рекомендую поискать ответ на Хард Форуме. Но по моим собственным ощущениям это скорее всего вирусы, поэтому обязательно нужно проверить компьютер на них с помощью какой-нибудь утилиты войдя в безопасный режим при загрузке компьютера.

Связанные по заголовку статьи:

Почитайте также похожие посты:

  1. Удалить дубли в WordPress с помощью Robots.txt Всем привет. Сегодня я бы хотел рассмотреть довольно важный вопрос,...
  2. Качественная структура сайта по мнению Yandex. Яндекс помощь Продолжаю довольно таки познавательный цикл статей по Яндекс помощи для...
  3. Яндекс индексирует пустые страницы Добрый день уважаемые читатели. Совсем недавно начал замечать такую не...
  4. Как привлечь трафик на сайт Этот пост будет написан скорее для новичков, которые только только...
  5. Апдейт Яндекса за 20 и 23 октября Решил немного написать про недавние апдейты Яндекса за 20 и...


Категория: Оптимизация - Комментариев (5)
5 Комментариев »
  1. All in One SEO Pack вроде как решает проблему с дублями. Правда не проверял, действительно ли, но раз за все время жизни блога не было неприятных казусов (не считая шуток яндекса), то вроде как все работает

    Комментарий от Вадим  —  28.08.2012 @ 00:31 (мск)


  2. Угу, олл ин уан СЕО пак закрывает нечеткие дубли, т.е. там где куски текста повторяются вперемешку (выдержки постов в рубриках, архивах, тегах и т.п.) Но как я уже упоминал это не особо критично, как мне кажется.

    А вот дубли в полном смысле этого слова (т.е. абсолютно одинаковые странички) вот они опасней. Но к счастью вордпресс в этом смысле неплохой движок. (конечно могут дубли возникнуть по типу урл поста#respond и т.п. но насколько я вижу Яндекс отличает и не индексирует такие странички)

    Комментарий от West Blogger  —  28.08.2012 @ 08:44 (мск)


  3. Вроде как #more и прочее создает дубль, но поисковики его не учитывают, во всяком случае по моим наблюдениям так. Drupal помню в robots.txt не учел дублирование комментариев, ща вроде как пытаются исправить

    Комментарий от Вадим  —  31.08.2012 @ 19:07 (мск)


  4. Самый жестокий движек в плане дублей, говорят, это Joomla

    Комментарий от West Blogger  —  31.08.2012 @ 20:21 (мск)


  5. По сути, якорь #more не должен создавать дубли, но как там на самом деле, толком никто не знает…
    Есть 3 варианта: дубль, не дубль и дубль, не учитывающийся поисковиками.

    Слышал, что атрибут «canonical» решает проблему только с Гуглом, а Яше он пофигу..

    Написал Платонам, жду ответа… А пока на всякий случай для ссылок с /#more — id статьи

    Комментарий от sergies  —  05.03.2013 @ 11:52 (мск)


Оставить комментарий

Наверх


30.01.09 - 23.08.2017 © West Blogger. All rights reserved.