Помощник
|
![]() |
![]() |
Сообщение
#1
|
||
![]() |
|
||
|
|||
![]() |
![]()
Сообщение
#2
|
![]() |
Возможны два вида ограничений:
1) Файл robots.txt в корневом каталоге сервера позволяет удалить из индекса сервер целиком, отдельные директории сервера и, непосредственно перечисленные отдельные файлы. Семантика директив в файле robots.txt: User-agent: * Disallow: / # Удаляет из индексирования весь сервер целиком или User-agent: * Disallow: /cgi-bin/ # Удаляет из индексирования директорию Disallow: /info/fakeinfo.html # Удаляет из индексирования файл Строка User-agent: указывает, что последующие директивы Disallow: относятся к указанному роботу. Символ * означает, что директивы предназначаются всем роботам. Если робот специфицирован непосредственно, то он рассматривает только предназначающиеся ему директивы, и не учитывает директивы, перечисленные в разделе User-agent: *. Для указания директив непосредственно Googlebot, необходимо задать имя робота: User-agent: Googlebot Файл robots.txt может содержать несколько наборов директив, например, для всех роботов (*) и для некоторох роботов непосредственно, предваряемые соответствующими строками User-agent: *, User-agent: Googlebot, и т.д. Количество последующих директив Disallow: не ограничено, и каждая последующая должна размещаться в новой строке. Каждая директива должна содержать только один путь или имя файла. Перечисления, например, "Disallow: /cgi-bin/ /mydir/" или "Disallow: /cgi-bin/;/mydir/" не поддерживаются. Символ # указывает на начало комментария, и часть строки после этого символа роботом не рассматривается. 2) Мета-Теги, внутри HTML страницы позволяют ограничивать индексирование данной страницы сайта. Мета-Тег добавляется в раздел <HEAD> страницы, и также как и в случае с файлом robots.txt, ограничение может относиться либо ко всем роботам, либо непосредственно к указанному. Теги: <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> или <META NAME="WEBALTA" CONTENT="NOINDEX, NOFOLLOW"> запрещают индексировать страницу всем роботам, или только Googlebot, соответственно. Теги: <META NAME="ROBOTS" CONTENT="NOFOLLOW"> или <META NAME="Googlebot" CONTENT="NOFOLLOW"> Разрешают индексировать страницу, но запрещают переходить по внешним ссылкам всем роботам, или только Googlebot, соответственно. Теги: <META NAME="ROBOTS" CONTENT="NOINDEX"> или <META NAME="Googlebot" CONTENT="NOINDEX"> запрещают индексировать страницу, но позволяют переходить по внешним ссылкам всем роботам, или только Googlebot, соответственно. Также, возможно одновременное размещения нескольких Мета-Тегов, ограничивающих индексирование, как для всех роботов, так и для непосредственно указанных. В этом случае, непосредственно указанный робот Googlebot принимает ограничения, как сумму из указанных ему и указанных для всех роботов. |
|
|
![]() |
![]()
Сообщение
#3
|
![]() |
Как запретить индексацию некоторых страниц Яндекс боту и гугл боту, а другим разрешить, я че то прописывал запрет на яндекс и гугл, указываю каталогу ссылку, он говорит стоит запрет всем роботам...
|
|
|
![]() |
![]()
Сообщение
#4
|
![]() |
Примерно так:
User-agent: Googlebot
Disallow: /cgi-bin/ # Удаляет из индексирования директорию Disallow: /info/fakeinfo.html # Удаляет из индексирования файл |
|
|
![]() |
![]()
Сообщение
#5
|
![]() |
Отличная познавательная инфа. Большне нигде не встречал, чтобы так терпеливо всё объяснили. Спасибо!
|
|
|
![]() |
![]()
Сообщение
#6
|
![]() |
Скажите пожалуйста, что надо прописать в robots.txt, чтобы зпретить индексацию всех поисковых роботов? Яндекс вам в помощь! вот нарыл интересный мануал на русском http://robotstxt.org.ru/ |
|
|
![]() |
![]()
Сообщение
#7
|
![]() |
Примерно так: User-agent: Googlebot Disallow: /cgi-bin/ # Удаляет из индексирования директорию Disallow: /info/fakeinfo.html # Удаляет из индексирования файл А Гуглу всё это по барабану. Забудьте о robots.txt, изучайте матчасть по htaccess Сообщение отредактировал BumBah - 1.9.2007, 23:22 |
|
|
![]() |
![]()
Сообщение
#8
|
![]() |
Скажите пожалуйста а как отредактировать фаил robots.txt я его найти немогу сайт на юкосе
|
|
|
![]() |
![]()
Сообщение
#9
|
![]() |
Подскажите пожалуйста еще: как склеить с помощью robots.txt 3 сайта. (2-идентичные 1-идентичен на 95%).
Имеет ли вообще значение идентичный на них контент или нет. ------------------------------------------------- Сайт студентов - http://gr823.spb.ru. Мебель - http://tron.spb.ru |
|
|
![]() |
![]()
Сообщение
#10
|
|
![]() |
Скажите пожалуйста а как отредактировать фаил robots.txt я его найти немогу сайт на юкосе нужно создать вручную в блокноте и залить на сервер.
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
![]() |
![]() |
2 | nuaru_ | 1100 | 29.3.2023, 16:31 автор: nuaru_ |
![]() |
Twitter запустил бета-тестирование Search Keyword Ads для всех рекламодателей | 0 | VinogradOFF | 296 | 27.1.2023, 14:20 автор: VinogradOFF |
![]() |
Secretsline VPN - скорость до 100 мбит/c. Без логов. Для всех платформ. | 2 | Secrets_Line | 995 | 30.3.2022, 12:49 автор: EvilGomel |
![]() |
![]() |
79 | ClickDealer | 24548 | 9.2.2022, 11:45 автор: ClickDealer |
![]() |
Списки всех зарегистрированных доменов с указанными NS адресами | 11 | phosphoruss | 7506 | 4.11.2021, 21:07 автор: phosphoruss |
![]() |
Текстовая версия | Сейчас: 2.4.2023, 7:22 |