Помощник
|
Robots.txt, как закрыть страницы |
fremfr
|
Сообщение
#1
|
||
|
|
||
|
|||
Fallup |
14.2.2011, 20:14;
Ответить: Fallup
Сообщение
#2
|
|
Дай бог памяти
Disallow: *print_item -------------------- |
|
|
lostprophet |
14.2.2011, 20:19;
Ответить: lostprophet
Сообщение
#3
|
|
-------------------- |
|
|
ПоследнийГерой |
14.2.2011, 20:20;
Ответить: ПоследнийГерой
Сообщение
#4
|
|
fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок
User-Agent: * Disallow: /print который понятен всем роботам. При текущей структуре для Яндекса можно создать такой блок в robots.txt User-agent: Yandex Disallow: Clean-param: tmpl Для гугла User-Agent: Googlebot
Disallow: /*?*tmpl=* -------------------- Кроме этого хостинга или этого облака порекомендовать мне больше нечего. |
|
|
Starks |
14.2.2011, 21:58;
Ответить: Starks
Сообщение
#5
|
|
О и мне пригодилось спасибо.
|
|
|
fremfr
|
Сообщение
#6
|
|
fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок User-Agent: * Disallow: /print который понятен всем роботам. Я так понимаю что это можно сделать с помощью .htaccess? Что там надо прописать для этого? И ещё почему то начали индексироваться страницы http://site.ru/shop/vizit?start=60, http://site.ru/shop/vizit?start=80 хотя это те же самые страницы, что и просто http://site.ru/shop/vizit Как сделать что бы в индексе не было этого мусора? Сообщение отредактировал fremfr - 23.2.2011, 12:32 |
|
|
Jepps |
23.2.2011, 13:08;
Ответить: Jepps
Сообщение
#7
|
|
fremfr, попробуйте так:
User-Agent: *
Disallow: /vizit?start=* Сообщение отредактировал Jepps - 23.2.2011, 13:15 -------------------- |
|
|
fremfr
|
Сообщение
#8
|
|
|
А если банально написать
Disallow: /*? Я так понимаю эта строка для всех роботов исключит и страницы типа: http://site.ru/shop/vizit?start=60 и страницы типа http://site.ru/shop/individualnye/43?tmpl=print_item Всем спасибо...нашел в панеле вебмастера сервис по проверке Robots.txt....все проверил сам
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Арбитражники, как ведете учет расходов и доходов? | 11 | Boymaster | 1744 | Вчера, 23:35 автор: Boymaster |
|
Как вывести деньги в Украине с заблокированного Юмани ? | 29 | freeax | 4773 | Вчера, 1:19 автор: sergio11 |
|
Как вы отдыхаете от работы за компом | 148 | adw-kupon.ru | 19679 | 8.4.2024, 10:37 автор: Skyworker |
|
Как вы бросили работу и перешли на заработок с сайтов? | 18 | uahomka | 3087 | 5.4.2024, 5:53 автор: Skyworker |
|
Как бездомные хранят деньги? | 81 | metvekot | 13645 | 31.3.2024, 12:44 автор: Boymaster |
Текстовая версия | Сейчас: 18.4.2024, 9:32 |