Помощник
Зачем закрывать страницы от индексации? |
chesterS
|
Сообщение
#1
|
||
|
|
||
|
|||
Maxim-KL |
3.10.2011, 0:59;
Ответить: Maxim-KL
Сообщение
#2
|
|
Всем привет! Скажите, вот если нет жесткой необходимости закрывать какие-либо страницы от индексации, то для чего тогда вообще это нужно делать? Ну если нет нужды, значит не закрывайте. -------------------- |
|
|
Stalk-p |
3.10.2011, 1:00;
Ответить: Stalk-p
Сообщение
#3
|
|
Закрывать от индексации нужно все мусорные страницы, дабы не попасть под АГС и прочие фильтры. Особенно теги (за редкими исключениями, когда правильно используются), календари, все служебные страницы...
|
|
|
Леффан |
3.10.2011, 1:04;
Ответить: Леффан
Сообщение
#4
|
|
Всем привет! Скажите, вот если нет жесткой необходимости закрывать какие-либо страницы от индексации, то для чего тогда вообще это нужно делать? Закрывать нужно только те страницы, которые дублируют контент, потому что ваш сайт может попасть под фильтр. А вообще, как я думаю, не из-за этого в АГС попадают. |
|
|
jack |
3.10.2011, 2:06;
Ответить: jack
Сообщение
#5
|
|
А теперь внимание - правильный ответ:
Многочисленные страницы-дубликаты, результаты поиска по сайту, статистика посещений и тому подобные страницы могут тратить ресурсы робота и мешать индексированию основного содержимого сайта. Такие страницы не имеют ценности для поисковой системы, так как пользователям в выдаче они не предоставляют какой-то уникальной информации. Рекомендуем запрещать индексирование таких страниц в файле robots.txt. Если их не исключить из индексирования, то может получиться так, что регулярно добавляющиеся или обновляющиеся технические страницы будут хорошо индексироваться, а факт обновления важной информации на основных страницах сайта для робота останется незамеченным. Читать полностью → (рекомендую, там очень много интересного) -------------------- |
|
|
Lenka |
3.10.2011, 2:26;
Ответить: Lenka
Сообщение
#6
|
|
Хорошему сайту всё пофигу, он может иметь до 50% и более дублирующих страниц, типа тегов, поисковых выдач, статистики, страниц аккаунтов пользователей, рейтингов и т.д. ничего ему поисковики не сделают, особенно Яндекс. Поэтому всё зависит от статуса сайта. Если сайт новый, то он должен медленно обрастать второстипенными страницами, иначе будет медленно набирать обороты. Сайт с сотней ручных страниц проще раскрутить, чем новый сайт с тысячей страниц, сотня из которых - полезные.
-------------------- |
|
|
chesterS
|
Сообщение
#7
|
|
Всем спасибо, друзья, все понял.
|
|
|
chursa |
6.10.2011, 2:16;
Ответить: chursa
Сообщение
#8
|
|
Для упрощения жизни найдите какойнить плагин, который будет автоматически закрывать от индексации все дубли новосозданных страниц.
|
|
|
Sasha_Boh |
11.10.2011, 14:33;
Ответить: Sasha_Boh
Сообщение
#9
|
|
Чтобы не попасть под фильтры закрываются страницы, которые имеют сходный контент. Лучше лишний раз перестраховаться.
|
|
|
WMdeals |
25.10.2011, 14:17;
Ответить: WMdeals
Сообщение
#10
|
|
я например закрываю коды счётчиков всегда - особенно если их стоит много на сайте
-------------------- |
|
|
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Зачем перед лендингом ставят промежуточную страницу? | 2 | Boymaster | 733 | Вчера, 18:05 автор: Boymaster |
|
Исчезающие фрилансеры после предоплаты. Зачем? Какой смысл? | 36 | metvekot | 9593 | 31.3.2024, 1:01 автор: Liudmila |
|
Кто и зачем покупает картинки обезьян по $200 тысяч? NFT |
167 | metvekot | 27442 | 6.3.2024, 21:58 автор: Boymaster |
|
Нужно ли закрывать ненужные страницы тегом noindex, follow? | 8 | noviktamw | 2915 | 2.3.2024, 12:53 автор: toplinks |
|
По какому принципу работают ускорители индексации сайта? | 5 | Lifelove | 1642 | 29.1.2024, 9:50 автор: Skyworker |
Текстовая версия | Сейчас: 25.4.2024, 1:20 |