Помощник
|
Правильно ли я закрыл? |
LeZ
|
Сообщение
#1
|
||
|
|
||
|
|||
x64 |
9.3.2016, 22:49;
Ответить: x64
Сообщение
#2
|
|
Домен нужно убрать
|
|
|
LeZ
|
Сообщение
#3
|
|
|
|
|
x64 |
10.3.2016, 16:40;
Ответить: x64
Сообщение
#4
|
|
Здесь есть несколько примеров.
Запросы неявно расширяются. Это значит, что под запретом будет и /kontakty/, и /kontakty/address/, и прочее. Имеются ввиду начальные слеши? Да. Корень сайта это / и директива Disallow: / запрещает индексировать весь сайт. |
|
|
LeZ
|
Сообщение
#5
|
|
Посмотрел. Вопрос прежний:
Так нормально (изменил на сайте)?: Disallow: /kontakty/ Disallow: /reklama/ Такого типа страницы /kontakty/address/ не планируются. Я как и предполагал таким способом закроются, к примеру: Disallow: /kontakty/и всё что после если будет. Меня смущает вот что: если к примеру будет статья на сайте с ЧПУ: /reklama-kak-dvigatel-torgovli/ она же при такой картине не закроется, так? Снова погуглил и вот что надыбал: http://aimblog.ru/ustanovka/nastrojka-word...indeksacii.html А если раздел у меня на сайте по адресу: http://*********.ru/category/reklama/ То как я сделал не закроет ли её? |
|
|
Элантрис |
10.3.2016, 20:28;
Ответить: Элантрис
Сообщение
#6
|
|
LeZ, не морочьте себе и пользователям форума голову, все предельно просто и понятно описано в официальных инструкциях ПС (например, вот от Яндекса). Вам самому надо понять принцип работы, а не по каждому правилу спрашивать.
1) Добавляете сайт в Яндекс.Вебмастер 2) Заходите на страницу https://webmaster.yandex.ru/robots.xml и проверяйте ваш robots.txt, если укажет на ошибки - исправляйте. 3) В том же Яндекс.Вебмастере вы можете проверить ЛЮБУЮ страницу вашего сайта на индекс и узнать, есть ли на нее запрет, в соответствии со всеми настройками (в том числе и robots.txt). Функция эта есть как в старой версии так и в новой, называется она "Проверить URL": Конкретно в вашем случае правила: Disallow: /kontakty/ Disallow: /reklama/ Блокируют (запрещает поисковому роботу скачивание этих страниц и занесение в базу) все страницы вашего сайта, которые начинаются с "/kontakty/" и "/reklama/", поставив в конце "/" указывает на то, что это каталог. Цитата Меня смущает вот что: если к примеру будет статья на сайте с ЧПУ: /reklama-kak-dvigatel-torgovli/ она же при такой картине не закроется, так? Нет, не будет, так как вы указали каталог "/reklama/", чтобы подобные страницы были заблокированы необходимо иначе делать. Цитата А если раздел у меня на сайте по адресу: http://*********.ru/category/reklama/ Не уверен, но скорее всего будет. В таком случае исключите эту категорию новый правилом "Allow: /category/reklama/", тогда оно будет исключено, при этом это правило должно быть выше (желательно). Т.е. на выходе примерно так: Allow: /category/reklama/ Disallow: /kontakty/ Disallow: /reklama/ Расшифруем правила: запрещает к скачиванию страницы, которые будут начинаться с "/kontakty/" и "/reklama/", но при этом разрешает скачивание страниц, которые будут начинаться с "/category/reklama/". В любом случае - проверяйте сами в сервисе, что я указал, тогда вы точно будете знать ответы. PS: не читайте левый бред с неофициальных источников Сообщение отредактировал Элантрис - 10.3.2016, 20:31 -------------------- Контакты для связи: elantris.g{собачка}gmail.com Отвечаю в будни c 9:00 по 23:00, в выходные дни недоступен. |
|
|
LeZ
|
Сообщение
#7
|
|
|
|
|
loginmain |
11.3.2016, 0:17;
Ответить: loginmain
Сообщение
#8
|
|
Не уверен, но скорее всего будет. нет, не будет. Цитата User-agent: Yandex Disallow: /*private # запрещает не только '/private', # но и '/cgi-bin/private' то есть, без * все ок Цитата это правило должно быть выше (желательно). Т.е. на выходе примерно так: Allow: /category/reklama/ Disallow: /kontakty/ Disallow: /reklama/ нет, надо просто сортировать Цитата Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то робот выбирает последнюю в порядке появления в сортированном списке. Таким образом, порядок следования директив в файле robots.txt не влияет на использование их роботом. Убрал, так правильно?: Цитата Disallow: /kontakty/ Disallow: /reklama/ правильно, если не будет статей типа site.ru/kontakty/bla-bla/i_t_d.php или site.ru/kontakty/stattja.php |
|
|
LeZ
|
Сообщение
#9
|
|
|
|
|
lamov |
11.3.2016, 12:01;
Ответить: lamov
Сообщение
#10
|
|
Как грубо 2 страницы в robots.txt закрывать
мета-тег robots noindex, follow же придумали) |
|
|
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Учимся правильно отвечать | 17 | falken | 21625 | 13.7.2020, 18:13 автор: falken |
|
Как правильно купить сайт? | 6 | magnet | 2758 | 9.3.2020, 18:54 автор: Plya |
|
Сколько денег правильно реинвестировать? | 4 | Bilish | 1155 | 20.1.2020, 19:03 автор: Santey |
|
Как правильно называется такой шаблон? | 1 | sc2r2bey | 3156 | 17.12.2019, 21:10 автор: Ostromir |
|
Как правильно обернуть картинку в ссылку? | 5 | PeterGreat | 8140 | 10.4.2016, 23:24 автор: -nightgremlin- |
Текстовая версия | Сейчас: 25.4.2024, 3:54 |