Ошибки при создании сайта, по мнению Яндекса
Автор: Westblogger, 2011 год. 341Я думаю каждый человек, создавая тот или иной сайт, имеет свой взгляд на то, как он должен выглядеть. Но уж так сложилось, что вебмастера в любом случае должны подстраиваться под требования поисковых систем, для того чтобы их сайты корректно отображались в результатах поиска. В этой статье как раз и пойдет речь об ошибках при создании сайта на взгляд Яндекса (help.yandex.ru/webmaster/?id=1108949)
Боты (пауки, роботы) очень часто могут воспринимать те или иные форматы документов не так, как ожидает вебмастер. Именно из-за этого, зачастую, сайты плохо индексируются или вообще перестают корректно входить в индекс (это наверно и есть один из случаев АГСа, когда в поиске у ничем не провинившегося сайта остается всего несколько страниц)
Первой проблемой для робота индексатора может стать банальная навигация через скрипты (Flash или JavaScript) Помните, что если у вас навигация не продублирована с помощью обычного оформления ссылок (тэг <a href=...) то он не перейдет на другие странички. Кроме того, если на страницах используются фреймы (которые подгружают в существующую страничку содержание) то и в этом случае индексация для поисковой системы будет затруднена.
Следите и старайтесь избегать избыточных редиректов. Обычный 302 редирект не сможет гарантировать того, что в результатах поиска будет показываться именно цель редиректа. На своем опыте еще добавлю, всегда проверяйте корректность перенаправления (например, если вздумаете включить ЧПУ урлы, то обязательно нужно проследить за тем, чтобы со старых url перенаправляло именно по 301 редиректу) Кроме того, проверяйте чтобы главный адрес сайта, например westblog.ru и www.westblog.ru были также «склеены» 301м редиректом. Иначе может произойти ситуация такая же как была и у меня.
Также не допускайте полных дублей страниц. Дубли могут возникнуть без вашего ведома и сгенерированы движком. Самый яркий пример, это движок Укоза, который прямо таки кишит различного рода повторениями страниц по разным урл адресам (как пример site.ru и site.ru/ или site.ru/blog/2010-02-17-105/ и site.ru/blog/2010-02-17-105 и т.п. Если на них не стоит 301 редирект, то для поисковиков эти странички разные)
Клоакинг – предоставление поисковым роботам одной информации, в то время как пользователи будут видеть другую информацию. За это сайт могут отправить в бан.
Не используйте изображения вместо текста. Например, выкладывать на сайт неотсканированную книжку не стоит, поисковый робот не сможет прочесть содержания, и сочтет все такие странички пустыми.
А вот следующая ошибка для меня, честно говоря, стала неожиданностью, так как и на моем блоге она до сих пор присутствовала. (пока я это дело не поправил) А именно, проблема так называемого мягкой ошибки 404. (soft 404) Поясню, многие движки, в том числе и вордпресс при проверке наличия постов и отсутствия оных выдают свою страницу ошибки. Но код сервера при этом (о них я напишу в следующих постах) отдают как 200 ок, и как следствие, всех их поисковик прекрасно кушает.
Вот пожалуй и все ошибки при создании сайта, которые описывает сам Яндекс, с моими комментариями.
В целом хорошая статья, прочитал с интересом, но на мой взгляд проблема с яндексом гораздо шире. Яндекс постоянно совершенствует алгоритмы, а мы совершенствуем наши методы, Seo это война, а на войне все средства хороши.
Комментарий от loba — 04.05.2011 @ 20:59 (мск)
Не совсем согласен, на мой взгляд SEO это далеко не борьба
Это скорее способность понимать чего хотят поисковики, а чего нет от конкретного сайта.
Комментарий от West Blogger — 05.05.2011 @ 07:32 (мск)
Есть еще много ошибок, которые допускают создатели сайтов…
Реклама вырезана (админ)
Комментарий от Irisha — 30.05.2012 @ 20:02 (мск)