Помощник
|
Robots.txt, как закрыть страницы |
fremfr
|
Сообщение
#1
|
||
|
|
||
|
|||
Fallup |
14.2.2011, 20:14;
Ответить: Fallup
Сообщение
#2
|
|
Дай бог памяти
Disallow: *print_item -------------------- |
|
|
lostprophet |
14.2.2011, 20:19;
Ответить: lostprophet
Сообщение
#3
|
|
-------------------- |
|
|
ПоследнийГерой |
14.2.2011, 20:20;
Ответить: ПоследнийГерой
Сообщение
#4
|
|
fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок
User-Agent: * Disallow: /print который понятен всем роботам. При текущей структуре для Яндекса можно создать такой блок в robots.txt User-agent: Yandex Disallow: Clean-param: tmpl Для гугла User-Agent: Googlebot
Disallow: /*?*tmpl=* -------------------- Кроме этого хостинга или этого облака порекомендовать мне больше нечего. |
|
|
Starks |
14.2.2011, 21:58;
Ответить: Starks
Сообщение
#5
|
|
О и мне пригодилось спасибо.
|
|
|
fremfr
|
Сообщение
#6
|
|
fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок User-Agent: * Disallow: /print который понятен всем роботам. Я так понимаю что это можно сделать с помощью .htaccess? Что там надо прописать для этого? И ещё почему то начали индексироваться страницы http://site.ru/shop/vizit?start=60, http://site.ru/shop/vizit?start=80 хотя это те же самые страницы, что и просто http://site.ru/shop/vizit Как сделать что бы в индексе не было этого мусора? Сообщение отредактировал fremfr - 23.2.2011, 12:32 |
|
|
Jepps |
23.2.2011, 13:08;
Ответить: Jepps
Сообщение
#7
|
|
fremfr, попробуйте так:
User-Agent: *
Disallow: /vizit?start=* Сообщение отредактировал Jepps - 23.2.2011, 13:15 -------------------- |
|
|
fremfr
|
Сообщение
#8
|
|
|
А если банально написать
Disallow: /*? Я так понимаю эта строка для всех роботов исключит и страницы типа: http://site.ru/shop/vizit?start=60 и страницы типа http://site.ru/shop/individualnye/43?tmpl=print_item Всем спасибо...нашел в панеле вебмастера сервис по проверке Robots.txt....все проверил сам
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Как вы отдыхаете от работы за компом | 151 | adw-kupon.ru | 19823 | Вчера, 13:52 автор: Vmir |
|
Как вы бросили работу и перешли на заработок с сайтов? | 20 | uahomka | 3450 | Вчера, 11:54 автор: Skyworker |
|
Как в пушсетках покупают по 100-200 тысяч кликов за день? | 1 | Boymaster | 526 | Вчера, 11:45 автор: Skyworker |
|
Как вывести деньги в Украине с заблокированного Юмани ? | 30 | freeax | 5017 | 20.4.2024, 16:49 автор: Liudmila |
|
Арбитражники, как ведете учет расходов и доходов? | 13 | Boymaster | 2024 | 20.4.2024, 15:06 автор: Boymaster |
Текстовая версия | Сейчас: 24.4.2024, 8:43 |