Помощник
|
Запрет индексации через robots.txt или мета тегом “Robots", как правильней? |
CtFelix
|
Сообщение
#1
|
||
|
|
||
|
|||
anchous |
9.5.2013, 19:42;
Ответить: anchous
Сообщение
#2
|
|
закрывать лучше метатегами,ибо гугель рандомно индексит то что запрещено в роботсе
странички лучше закрывать, ибо для гугля это сопли, а еще мона отгрести и фльтров, если их много становится -------------------- |
|
|
yurashklyaev |
9.5.2013, 20:52;
Ответить: yurashklyaev
Сообщение
#3
|
|
Все это делается в заисимости от ваших нужд. Если у вас маленький узкотематический сайт. И закрыть там нужно пару страниц и пагинацию. Смело делайте через роботс. Гугл все нормально реагирует на это. Не разу не было, чтобы санкции применялись по этому поводу. А если у вас новостной портал с сотней категорий и сотней ненужных страниц тогда только мета! Да и нецелесообразно в роботсе прописывать столько.
|
|
|
CtFelix
|
Сообщение
#4
|
|
anchous, Эмм если лучше закрывать мета тегами, получается вы в голосовании промахнулись ? Проголосовав за robots.txt ? Или я чего то не так понял?
yurashklyaev, на сайт будет больше 7к новостей, в разных категориях и страницы пагинации будет довольно много от 300 и больше. Ещё вопрос, если я закрыл страницу пагинации в ноиндекс мета тегом <meta name="robots" content="noindex, follow" />, будет ли она передавать внутренний вес ссылкам расположенным на этой странице? |
|
|
anchous |
10.5.2013, 0:22;
Ответить: anchous
Сообщение
#5
|
|
Или я чего то не так понял? вероятнее всего, ибо я не голосовал а как у вас может передавать вес не проиндексированная страница? -------------------- |
|
|
CtFelix
|
Сообщение
#6
|
|
|
Появился такой вопрос, если мы закрываем страницу от индексации через robots.txt то мы запрещаем роботам заходить на неё смотреть, что там есть и естественно индексировать её.
А если мы закрываем страницу тегом <meta name="robots" content="noindex, follow" /> то как бы мы говорим поиску "да конечно глянь, что на той странице есть, но в индексе она не нужна". Если рассуждать логично, то выходит, что мы ничего не пытаемся скрыть через robots.txt от поиска, мы говорим ему что наш сайт открыт для него, но некоторые страницы в выдаче не нужны. Если следовать этой логике то закрывать страницы тегом будет правильней, да и со стороны поиска будет немножко доверия, что мы ничего не пытаемся спрятать. Это логично даже по тому, что гугл AdSense присылает сообщение, что мол наш поисковый робот не смог получить доступ к этим страницам, откройте их для робота. У кого какое мнение на этот счёт?
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Как вы отдыхаете от работы за компом | 148 | adw-kupon.ru | 19525 | 8.4.2024, 10:37 автор: Skyworker |
|
Как вывести деньги в Украине с заблокированного Юмани ? | 27 | freeax | 4226 | 7.4.2024, 14:39 автор: Brainnet |
|
Как вы бросили работу и перешли на заработок с сайтов? | 18 | uahomka | 3002 | 5.4.2024, 5:53 автор: Skyworker |
|
✅ sms.chekons.com - ⭐ Сервис для получения SMS на реальные номера USA "Non-VoIP, безлим SMS, API" ⭐ Сервис для получения SMS на реальные номера USA |
11 | Chekon | 3779 | 4.4.2024, 12:19 автор: Chekon |
|
⭐⭐⭐ Google Voice | Gmail - OLD аккаунты "SMS и звонки" ⭐⭐⭐ | 13 | Chekon | 4070 | 4.4.2024, 11:12 автор: Chekon |
Текстовая версия | Сейчас: 10.4.2024, 10:39 |