Помощник
|
Почему гугл индексирует страницы закрытые в robots.txt? |
ExZod
|
Сообщение
#1
|
||
|
|
||
|
|||
anchous |
13.8.2012, 22:31;
Ответить: anchous
Сообщение
#2
|
|
потому что для гугля надежнее закрывать метатегами
-------------------- |
|
|
genjnat |
13.8.2012, 22:38;
Ответить: genjnat
Сообщение
#3
|
|
Файл robots.txt не является обязательным к исполнению
Источник Хотя свинство конечно. Закрыть все в метатегах возможеости нет, а чистить мусор через ГВМ уже задалбался. |
|
|
anchous |
13.8.2012, 22:48;
Ответить: anchous
Сообщение
#4
|
|
Хотя свинство конечно. Закрыть все в метатегах возможеости нет, а чистить мусор через ГВМ уже задалбался. еще большее свинство, что закрытое метатегами, но попавшее до этого в индекс, само не удаляется. это вот ваще бред- упавший сайт за два-три дня дропается из индекса, закрытое метатегами год назад, так и висит в индексе -------------------- |
|
|
serezka |
14.8.2012, 0:19;
Ответить: serezka
Сообщение
#5
|
|
гугл птица вольная.
Захочет - проиндексирует. Не захочет - проиндексирует. |
|
|
BoldLink |
14.8.2012, 13:49;
Ответить: BoldLink
Сообщение
#6
|
|
А что вы паритесь в Гугл ВебМастете удалите страницы и все) )или весь сайт)) Конечно если страниц не тысяча ) -------------------- |
|
|
OlgaNaft |
17.8.2012, 18:36;
Ответить: OlgaNaft
Сообщение
#7
|
|
Почему гугл индексирует страницы закрытые к индексации в robots.txt? Для поисковика robots.txt - не инструкция, а рекомендация. И вообще поисковые системы неуправляемы... -------------------- |
|
|
nika2012 |
17.8.2012, 18:48;
Ответить: nika2012
Сообщение
#8
|
|
Да уж, сайт на Wordpresse, так гугл индексирует 100 страниц вместо 40...
|
|
|
rival |
20.8.2012, 21:08;
Ответить: rival
Сообщение
#9
|
|
У меня на сайте 50 страниц, которые гугл раздул до 450, не обратил внимание ни на robots, ни на мета. Пробовал удалять через гвм, но создав запрос на удаление из кеша и поиска, страницы все равно остаются в запросе site:сайт. Разве что переносятся в отдельный список
Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на 50 уже показанных. Полностью наверно нельзя удалить. -------------------- |
|
|
Rfox |
23.8.2012, 11:40;
Ответить: Rfox
Сообщение
#10
|
|
|
Посмотрите на теги и дубли. .ВОзможно в их пробла
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Нужно ли закрывать ненужные страницы тегом noindex, follow? | 8 | noviktamw | 2906 | 2.3.2024, 12:53 автор: toplinks |
|
Вытащить страницы из кэша Яндекса | 2 | VostrVL | 1960 | 11.1.2024, 23:07 автор: ЛаврионСергеевич |
|
Сверстать страницы из figma нужно сделать страницы для веб приложения |
1 | bluestorm | 1296 | 7.6.2022, 18:11 автор: doharddocode |
|
Подобрать группы и страницы и разместить ссылку | 4 | Lacomka | 3410 | 21.2.2022, 8:43 автор: АлексейWEB |
|
Верстка и внедрение на сайт макета главной страницы Требуется: с Figma на Laravel |
2 | ARsHi | 1671 | 27.3.2021, 0:57 автор: Ogaelath |
Текстовая версия | Сейчас: 19.4.2024, 23:51 |