X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> Robots.txt, как закрыть страницы
fremfr
fremfr
Topic Starter сообщение 14.2.2011, 20:11; Ответить: fremfr
Сообщение #1


Новичок
*

Группа: User
Сообщений: 16
Регистрация: 21.2.2009
Поблагодарили: 3 раза
Репутация:   0  


Добрый день! Плз. нужна помощь. Ни как не могу разобраться как можно закрыть для индексации страницы для печати, адреса которых имеют вид типа http://xxxxx.ru/shop/individualnye/40?tmpl=print_item, http://xxxxx.ru/shop/individualnye/43?tmpl=print_item
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Fallup
Fallup
сообщение 14.2.2011, 20:14; Ответить: Fallup
Сообщение #2


Добрый пёс
******


Группа: Active User
Сообщений: 2372
Регистрация: 15.12.2009
Из: мамы
Поблагодарили: 1065 раз
Репутация:   119  


Дай бог памяти
Disallow: *print_item


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
lostprophet
lostprophet
сообщение 14.2.2011, 20:19; Ответить: lostprophet
Сообщение #3


Топовый постер
*******

Группа: Super Moderator
Сообщений: 2568
Регистрация: 18.11.2008
Из: Ростов-на-Дону
Поблагодарили: 3173 раза
Репутация:   292  


http://help.yandex.ru/webmaster/?id=996567

Disallow: *?tmpl=print_item


--------------------


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
ПоследнийГерой
ПоследнийГерой
сообщение 14.2.2011, 20:20; Ответить: ПоследнийГерой
Сообщение #4


Частый гость
**

Группа: User
Сообщений: 66
Регистрация: 15.1.2011
Поблагодарили: 12 раз
Репутация:   1  


fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок
User-Agent: *
Disallow: /print

который понятен всем роботам.

При текущей структуре для Яндекса можно создать такой блок в robots.txt
User-agent: Yandex
Disallow:
Clean-param: tmpl

Для гугла
User-Agent: Googlebot
Disallow: /*?*tmpl=*


--------------------
Услуги ПГ (верстка, дизайн, установка кода сапе, услуги программиста): lasthero@kazandaemon.ru
Кроме этого хостинга или этого облака порекомендовать мне больше нечего.


Поблагодарили: (2)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Starks
Starks
сообщение 14.2.2011, 21:58; Ответить: Starks
Сообщение #5


Частый гость
**


Группа: Banned
Сообщений: 65
Регистрация: 5.12.2010
Поблагодарили: 3 раза
Репутация:   -29  


О и мне пригодилось спасибо.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
fremfr
fremfr
Topic Starter сообщение 23.2.2011, 12:31; Ответить: fremfr
Сообщение #6


Новичок
*

Группа: User
Сообщений: 16
Регистрация: 21.2.2009
Поблагодарили: 3 раза
Репутация:   0  


(ПоследнийГерой @ 14.2.2011, 19:20) *
fremfr, желательно изменить адреса, чтобы они попали под одинаковое начало, например их адреса имели вид /print/shop/individualnye/43?tmpl=print_item, тогда в robots.txt можно будет добавить кусок
User-Agent: *
Disallow: /print

который понятен всем роботам.


Я так понимаю что это можно сделать с помощью .htaccess? Что там надо прописать для этого?
И ещё почему то начали индексироваться страницы http://site.ru/shop/vizit?start=60, http://site.ru/shop/vizit?start=80 хотя это те же самые страницы, что и просто http://site.ru/shop/vizit Как сделать что бы в индексе не было этого мусора?

Сообщение отредактировал fremfr - 23.2.2011, 12:32
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Jepps
Jepps
сообщение 23.2.2011, 13:08; Ответить: Jepps
Сообщение #7


Топовый постер
*******


Группа: Banned
Сообщений: 3062
Регистрация: 22.11.2009
Из: Москва
Поблагодарили: 1259 раз
Репутация:   178  


fremfr, попробуйте так:

User-Agent: *
Disallow: /vizit?start=*


Сообщение отредактировал Jepps - 23.2.2011, 13:15


--------------------
Забанен за игнорирование обязательств по оплате труда (случай #2) и оскорбление администрации.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
fremfr
fremfr
Topic Starter сообщение 23.2.2011, 13:58; Ответить: fremfr
Сообщение #8


Новичок
*

Группа: User
Сообщений: 16
Регистрация: 21.2.2009
Поблагодарили: 3 раза
Репутация:   0  


А если банально написать
Disallow: /*?

Я так понимаю эта строка для всех роботов исключит и страницы типа:

http://site.ru/shop/vizit?start=60 и страницы типа http://site.ru/shop/individualnye/43?tmpl=print_item

Всем спасибо...нашел в панеле вебмастера сервис по проверке Robots.txt....все проверил сам
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Тема имеет прикрепленные файлыВывод WM как ИП - обсудим способы?
12 duoseo 1618 Вчера, 12:11
автор: Pegas
Открытая тема (нет новых ответов) Приоритет верхней части страницы
12 b3rsus 2005 Вчера, 12:06
автор: avventa
Открытая тема (нет новых ответов) Как отфильтровать для готового СЯ ключи, которые уже есть на страницах сайта?
3 Adriano_123 731 17.1.2018, 23:55
автор: Luden
Горячая тема (нет новых ответов) Атака клонов! Или как бороться с мультиаккаунтами.
35 Pelican_Program 8039 17.1.2018, 17:57
автор: Pelican_Program
Горячая тема (нет новых ответов) Черный список обменников и как безопасно обменять валюту
152 Kurses 31986 17.1.2018, 13:55
автор: BestExchangers


 



RSS Текстовая версия Сейчас: 20.1.2018, 4:58
Дизайн