X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Google открыла исходный код парсера Robots.txt
seostock
seostock
Topic Starter сообщение 2.7.2019, 20:19; Ответить: seostock
Сообщение #1


Google намеревается помочь веб-девелоперам более грамотно парсить файлы robots.txt. Для этого корпорация открыла исходный код библиотеки на C++, которая используется для парсинга файлов robots.txt и проверки соблюдения правил.

«На протяжении 25 лет “Стандарт исключений для роботов“ (Robots Exclusion Protocol, REP) был стандартом де-факто, что имело свои неприятные последствия как для веб-разработчиков, так и для поисковых роботов. Например, что делать, если файлы robots.txt весят сотни мегабайт», — пишет корпорация в блоге.

«Сегодня мы объявляем, что хотим сделать REP интернет-стандартом. Это очень важный шаг, который, однако, потребует дополнительной работы от разработчиков, которые парсят файлы robots.txt». «Но мы готовы помочь и с этим. Мы открыли исходный код библиотеки на C++, которая используется нашими внутренними системами для парсинга robots.txt, а также проверки соответствия правилам синтаксиса этих файлов».

Стоит отметить, что библиотека, о которой говорит Google, используется уже около 20 лет. Она содержит строки кода, написанные еще в 90-х годах.

Источник
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Rybakin
Rybakin
сообщение 2.7.2019, 23:09; Ответить: Rybakin
Сообщение #2


Они еще и noindex больше не рекомендуют использовать

Цитата
1 сентября 2019 года Google упразднит элементы кода, используемые в robots.txt, но не соответствующие правилам. В список попадают директивы noindex, nofollow и crawl-delay – вебмастерам, которые прописывали их в robots.txt, придется воспользоваться альтернативными вариантами.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
VinogradOFF
VinogradOFF
сообщение 3.7.2019, 23:36; Ответить: VinogradOFF
Сообщение #3


Цитата(Rybakin @ 2.7.2019, 23:09) *
используемые в robots.txt, но не соответствующие правилам. В список попадают директивы noindex, nofollow и crawl-delay


окей crawl-delay в роботах видел часто
но noindex, nofollow ???
А можно хотя бы парочку примеров как это выглядело?

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Если статья не в индексе Google - она уникальна или нет?
6 uahomka 1570 Сегодня, 15:37
автор: Arsenwenger
Горячая тема (нет новых ответов) Продажа аккаунтов - Gmail.com I Google+
аккаунты, Gmail Google+, не дорого
64 KYBERGURU73 51765 19.4.2024, 22:52
автор: KYBERGURU73
Открытая тема (нет новых ответов) ⭐⭐⭐ Google Voice | Gmail - OLD аккаунты "SMS и звонки" ⭐⭐⭐
15 Chekon 4467 18.4.2024, 12:00
автор: Chekon
Горячая тема (нет новых ответов) Google запускает новый браузер элементами искусственного интеллекта
38 arendator 13496 21.3.2024, 18:10
автор: Rebex
Открытая тема (нет новых ответов) Сайт не индексируется в Google без добавления ссылок в адурилку
4 Nekit 1086 20.3.2024, 21:44
автор: MorKer


 



RSS Текстовая версия Сейчас: 24.4.2024, 21:14
Дизайн