X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Новые правила обработки директив Allow и Disallow в файлах robots.txt, важно
GreenMan
GreenMan
Topic Starter сообщение 8.3.2012, 14:59; Ответить: GreenMan
Сообщение #1


Получил уведомление в Я.Вебмастер. Наверное, все и так это увидят, но все же.

Яндекс ввел новые правила обработки директив Allow и Disallow в файлах robots.txt.
Подробнее об использовании директив читаем здесь.


--------------------
- вэбмастер-энтузиаст -


Поблагодарили: (1)
4
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Fallup
Fallup
сообщение 8.3.2012, 15:04; Ответить: Fallup
Сообщение #2


Глазами пробежался, вроде все по старому.
Сообщения в панели нет.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Silverspam
Silverspam
сообщение 8.3.2012, 15:14; Ответить: Silverspam
Сообщение #3


как было:

Развернуть/Свернуть
Использование директив Disallow и Allow

Чтобы запретить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Disallow'. Примеры:

User-agent: Yandex
Disallow: / # блокирует доступ ко всему сайту

User-agent: Yandex
Disallow: /cgi-bin # блокирует доступ к страницам
#начинающимся с '/cgi-bin'

Примечание:

Недопустимо наличие пустых переводов строки между директивами 'User-agent' и 'Disallow' ('Allow'), а также между самими 'Disallow' ('Allow') директивами.

Кроме того, в соответствии со стандартом перед каждой директивой 'User-agent' рекомендуется вставлять пустой перевод строки.

Символ '#' предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.

Чтобы разрешить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Allow'. Примеры:

User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'

Совместное использование директив.

Если для данной страницы сайта подходит несколько директив, то выбирается первая в порядке появления в выбранном User-agent блоке. Примеры:

User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'

User-agent: Yandex
Disallow: /
Allow: /cgi-bin
# запрещает скачивать весь сайт

Директивы Allow-Disallow без параметров.

Отсутствие параметров у директивы трактуется следующим образом:

User-agent: Yandex
Disallow: # то же, что и Allow: /

User-agent: Yandex
Allow: # то же, что и Disallow: /


как стало:

Развернуть/Свернуть
Использование директив Disallow и Allow

Чтобы запретить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Disallow'. Примеры:

User-agent: Yandex
Disallow: / # блокирует доступ ко всему сайту

User-agent: Yandex
Disallow: /cgi-bin # блокирует доступ к страницам
#начинающимся с '/cgi-bin'

Примечание:

Недопустимо наличие пустых переводов строки между директивами 'User-agent' и 'Disallow' ('Allow'), а также между самими 'Disallow' ('Allow') директивами.

Кроме того, в соответствии со стандартом перед каждой директивой 'User-agent' рекомендуется вставлять пустой перевод строки.

Символ '#' предназначен для описания комментариев. Все, что находится после этого символа и до первого перевода строки не учитывается.

Чтобы разрешить доступ робота к некоторым частям сайта или сайту целиком, используйте директиву 'Allow'. Примеры:

User-agent: Yandex
Allow: /cgi-bin
Disallow: /
# запрещает скачивать все, кроме страниц
# начинающихся с '/cgi-bin'

Совместное использование директив.

Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то выбирается последняя в порядке появления в сортированном списке. Таким образом порядок следования директив в файле robots.txt не влияет на использование их роботом. Примеры:

# Исходный robots.txt:
User-agent: Yandex
Allow: /catalog
Disallow: /
# Сортированный robots.txt:
User-agent: Yandex
Disallow: /
Allow: /catalog
# разрешает скачивать только страницы,
# начинающиеся с '/catalog'

# Исходный robots.txt:
User-agent: Yandex
Allow: /
Allow: /catalog/auto
Disallow: /catalog
# Сортированный robots.txt:
User-agent: Yandex
Allow: /
Disallow: /catalog
Allow: /catalog/auto
# запрещает скачивать страницы, начинающиеся с '/catalog',
# но разрешает скачивать страницы, начинающиеся с '/catalog/auto'.

Важно. В случае возникновения конфликта между двумя диретивывами с префиксами одинаковой длины приоритет отдается директиве Allow.

Директивы Allow-Disallow без параметров.

Отсутствие параметров у директивы трактуется следующим образом:

User-agent: Yandex
Disallow: # то же, что и Allow: /

User-agent: Yandex
Allow: # то же, что и Disallow: /


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
0alex1
0alex1
сообщение 8.3.2012, 15:15; Ответить: 0alex1
Сообщение #4


Вообще-то изменение в обработке явное и сообщение тоже поучил от всех панелей ЯВ.


--------------------
Взять Кредит Webmoney тут
Лучшие биржи ссылок wmr1000 - Заработок в соц. сетях там
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
install
install
сообщение 8.3.2012, 15:15; Ответить: install
Сообщение #5


Хм, вроде все по старому. Что там изменилось не понятно.
Ни чего не приходило на почту и в панель.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
boberko
boberko
сообщение 8.3.2012, 15:20; Ответить: boberko
Сообщение #6


Отличная новость, упрощает создание и редактирование роботс. Открыть для индексации только необходимое в 3 строки, чудесно.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
0alex1
0alex1
сообщение 8.3.2012, 15:24; Ответить: 0alex1
Сообщение #7


Изменение:
Раньше приоритете зависел от порядка следования директив а сейчас от длинны префикса.


--------------------
Взять Кредит Webmoney тут
Лучшие биржи ссылок wmr1000 - Заработок в соц. сетях там


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
xxxGhost
xxxGhost
сообщение 11.3.2012, 21:34; Ответить: xxxGhost
Сообщение #8


(GreenMan @ 8.3.2012, 14:59) *
Получил уведомление в Я.Вебмастер. Наверное, все и так это увидят, но все же.

Яндекс ввел новые правила обработки директив Allow и Disallow в файлах robots.txt.
Подробнее об использовании директив читаем здесь.

Спасибо, мне почему-то ничего не написали
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Мижган
Мижган
сообщение 11.3.2012, 23:58; Ответить: Мижган
Сообщение #9


Пришло уведомление об изменении, огорчило.

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
2 чел. читают эту тему (гостей: 2, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) Apple показала новые iPhone 15
72 arendator 7593 13.2.2024, 2:39
автор: Room
Открытая тема (нет новых ответов) Требуются рерайтеры для обработки заявок в бирже Gogetlinks
4 maxf056 6257 15.11.2021, 11:38
автор: pishu-text
Открытая тема (нет новых ответов) новые гео CN/CA/BG/IR/AE подключаемся
мелбет кайф
0 caa 1054 17.9.2020, 10:59
автор: caa
Открытая тема (нет новых ответов) FinFile - новые возможности для монетизации Ваших файлов!
3 FileXmaster 2080 25.7.2020, 16:10
автор: -Condis-
Открытая тема (нет новых ответов) Как перенести правила переадресации из .htaccess в php обработчик nginx?
0 KrisGuseva 2097 28.12.2019, 7:33
автор: KrisGuseva


 



RSS Текстовая версия Сейчас: 20.4.2024, 7:23
Дизайн