X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

5 страниц V   1 2 3 4 5 >
Открыть тему
Тема закрыта
> Зачем закрывать страницы от индексации?
chesterS
chesterS
Topic Starter сообщение 3.10.2011, 0:54; Ответить: chesterS
Сообщение #1


Всем привет!

Скажите, вот если нет жесткой необходимости закрывать какие-либо страницы от индексации, то для чего тогда вообще это нужно делать?

Сообщение отредактировал chesterS - 3.10.2011, 0:55
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Maxim-KL
Maxim-KL
сообщение 3.10.2011, 0:59; Ответить: Maxim-KL
Сообщение #2


(chesterS @ 2.10.2011, 23:54) *
Всем привет!

Скажите, вот если нет жесткой необходимости закрывать какие-либо страницы от индексации, то для чего тогда вообще это нужно делать?

Ну если нет нужды, значит не закрывайте. popcorn2.gif


--------------------
Забанен за мошенничество
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Stalk-p
Stalk-p
сообщение 3.10.2011, 1:00; Ответить: Stalk-p
Сообщение #3


Закрывать от индексации нужно все мусорные страницы, дабы не попасть под АГС и прочие фильтры. Особенно теги (за редкими исключениями, когда правильно используются), календари, все служебные страницы...
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Леффан
Леффан
сообщение 3.10.2011, 1:04; Ответить: Леффан
Сообщение #4


(chesterS @ 2.10.2011, 23:54) *
Всем привет!

Скажите, вот если нет жесткой необходимости закрывать какие-либо страницы от индексации, то для чего тогда вообще это нужно делать?

Закрывать нужно только те страницы, которые дублируют контент, потому что ваш сайт может попасть под фильтр. А вообще, как я думаю, не из-за этого в АГС попадают.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
jack
jack
сообщение 3.10.2011, 2:06; Ответить: jack
Сообщение #5


А теперь внимание - правильный ответ:
Многочисленные страницы-дубликаты, результаты поиска по сайту, статистика посещений и тому подобные страницы могут тратить ресурсы робота и мешать индексированию основного содержимого сайта. Такие страницы не имеют ценности для поисковой системы, так как пользователям в выдаче они не предоставляют какой-то уникальной информации. Рекомендуем запрещать индексирование таких страниц в файле robots.txt. Если их не исключить из индексирования, то может получиться так, что регулярно добавляющиеся или обновляющиеся технические страницы будут хорошо индексироваться, а факт обновления важной информации на основных страницах сайта для робота останется незамеченным.

Читать полностью → (рекомендую, там очень много интересного)


--------------------
Stimul-Cash и RX-Partners - лидеры фарма бизнеса!


Поблагодарили: (5)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Lenka
Lenka
сообщение 3.10.2011, 2:26; Ответить: Lenka
Сообщение #6


Хорошему сайту всё пофигу, он может иметь до 50% и более дублирующих страниц, типа тегов, поисковых выдач, статистики, страниц аккаунтов пользователей, рейтингов и т.д. ничего ему поисковики не сделают, особенно Яндекс. Поэтому всё зависит от статуса сайта. Если сайт новый, то он должен медленно обрастать второстипенными страницами, иначе будет медленно набирать обороты. Сайт с сотней ручных страниц проще раскрутить, чем новый сайт с тысячей страниц, сотня из которых - полезные.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
chesterS
chesterS
Topic Starter сообщение 3.10.2011, 12:16; Ответить: chesterS
Сообщение #7


Всем спасибо, друзья, все понял.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
chursa
chursa
сообщение 6.10.2011, 2:16; Ответить: chursa
Сообщение #8


Для упрощения жизни найдите какойнить плагин, который будет автоматически закрывать от индексации все дубли новосозданных страниц.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Sasha_Boh
Sasha_Boh
сообщение 11.10.2011, 14:33; Ответить: Sasha_Boh
Сообщение #9


Чтобы не попасть под фильтры закрываются страницы, которые имеют сходный контент. Лучше лишний раз перестраховаться.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
WMdeals
WMdeals
сообщение 25.10.2011, 14:17; Ответить: WMdeals
Сообщение #10


я например закрываю коды счётчиков всегда - особенно если их стоит много на сайте


--------------------
Постоянная продажа - большой список доменов с тИЦ. Домены с историей PageRank
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
5 страниц V   1 2 3 4 5 >
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Зачем перед лендингом ставят промежуточную страницу?
2 Boymaster 733 Сегодня, 18:05
автор: Boymaster
Горячая тема (нет новых ответов) Исчезающие фрилансеры после предоплаты. Зачем? Какой смысл?
36 metvekot 9593 31.3.2024, 1:01
автор: Liudmila
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыКто и зачем покупает картинки обезьян по $200 тысяч?
NFT
167 metvekot 27442 6.3.2024, 21:58
автор: Boymaster
Открытая тема (нет новых ответов) Нужно ли закрывать ненужные страницы тегом noindex, follow?
8 noviktamw 2915 2.3.2024, 12:53
автор: toplinks
Открытая тема (нет новых ответов) По какому принципу работают ускорители индексации сайта?
5 Lifelove 1642 29.1.2024, 9:50
автор: Skyworker


 



RSS Текстовая версия Сейчас: 24.4.2024, 23:39
Дизайн