Помощник
|
Googlebot не может получить доступ к файлам CSS и JS на сайте |
Zhil_hb
|
Сообщение
#1
|
||
|
|
||
|
|||
BLIK |
19.8.2015, 19:14;
Ответить: BLIK
Сообщение
#2
|
|
Evgeniy3200, Это эпидемия прям).
Скажу одно, у меня "много" сайтов, там где дизайны адаптивные(именно адаптивные), таких писем не было, там где НЕ адаптивные и нет мобильной версии, сообщения были. Я ничего ему не открывал, если я ему открою эти файлы, то в соплях в выдачи появятся еще и скрипты. И так появляются приходится руками из выдачи удалять. P.s А так открой ему примерно так
смотря какой у тебя путь такие и надо правила. Я не открывал по причине того что сайты старые и не особо важны для меня, а так может и открыл бы.... |
|
|
ShowPrint |
19.8.2015, 19:35;
Ответить: ShowPrint
Сообщение
#3
|
|
Не уверен что правильно, но я бы открыл... Без доступа к css сохраненная копия в ПС может выглядеть "как попало", за что можно поплатиться...
<offtop на тему>
|
|
|
Zhil_hb
|
Сообщение
#4
|
|
BLIK_mw,ShowPrint,
У меня в файле робота есть такое правило:
Значит те файлы, которые просит открыть Гугл, находятся по следующему пути: 1 /templates/beez3/css/файлы таблиц стилей 2 /templates/beez3/javascript/файлы скриптов которые в шаблоне используются т.е. по сути не должно быть проблем с выдачей и лишних страниц, если я их открою. Как мне правильно прописать правило для открытия нужной мне папки в закрытой? Т.е. в папке /templates я хочу открыть только 2 папки, с css и javascript, а все остальные оставить запрещенные к индексации. И вопрос второй: правило наверное лучше прописать и для Яндекса тоже? ведь он тоже индексирует все, хоть и не выдает ошибки. |
|
|
ShowPrint |
20.8.2015, 11:22;
Ответить: ShowPrint
Сообщение
#5
|
|
Evgeniy3200, попробуй после Disallow поставить
и в проверке robots.txt в ЯВМ укажи полный путь одного из css-файлов, он тебе напишет разрешен или запрещен к нему доступ... |
|
|
Zhil_hb
|
Сообщение
#6
|
|
ShowPrint, все вроде корректно работает, нужные файлы видит, не нужные не видит! Спасибо.
[mwhide=50] А еще тогда попутный вопрос: у меня в файле есть правила, которые касаются всех ботов, а есть правила сугубо для ЯндексБота. Так вот эти правила дублируются, но только с небольшими изменениями. Это правильно? Для примера сбрасываю теперешний файл робота, который родился после перелопачивнаия кучи литературы:
После проверки в ЯВБ по сути ошибок нету, и пишет какие строки бот Яндекса использует. В итоге при таком файле использует все, что надо. [/mwhide] |
|
|
ShowPrint |
20.8.2015, 13:27;
Ответить: ShowPrint
Сообщение
#7
|
|
Evgeniy3200, дубль правил с небольшими изменениями - нормальная ситуация...
Проверь (почитай) про два момента: 1. Про Sitemap... У меня он стоит в конце файла, если он стоит "до" правил для Я - правильно ли это??? Не получается ли что он для всех, кроме Я? Или так и задумано? 2. Про Host... Вроде это директива чуть ли не только для Я... И если я помню, то она должна стоять последней... (Строка с Sitemap - не считается) <offtop> Никогда не понимал смысл директив открытия, для того что не закрыто (например /images/)... Всегда считал, что все что не запрещено - разрешено... Могу ошибаться, т.к. отношу себя к категории ламмеров ;) </offtop> |
|
|
akmid81 |
6.11.2015, 16:39;
Ответить: akmid81
Сообщение
#8
|
|
Evgeniy3200, С первого взгляда мне эти требования Гугла показались странными. Поэтому, для верности провел эксперимент над своим сайтом (вот тема на форуме с экспериментом), сделал все как просил - открыл доступ ко всему. Тем более, Гугл грозился понижать в выдаче сайты, не выполняющие требования. 4 месяца наблюдал - результат абсолютно нулевой - никаких изменений не произошло ни в лучшую ни в худшую сторону - позиции остались примерно те же, трафик также не вырос.
Мое итоговое мнение - можно не обращать внимания на это сообщение, ни на что скрипты и стили не повлияют. |
|
|
Cern |
6.11.2015, 18:55;
Ответить: Cern
Сообщение
#9
|
|
|
Мне такое сообщение тоже пришло еще летом. Пошуршал по форумам, подумал и пришел к выводу, что открытие или закрытие пути к индексации ни на что не повлияет. Изменений для сайта в выдаче гугла не произошло. И сообщение выше подтверждает мои выводы.
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Странный трафик на сайте длительное время | 34 | TABAK | 9121 | Вчера, 23:38 автор: Arsenwenger |
|
CryptoCloud — прием USDT, BTC, ETH, LTC на любом сайте | 37 | CryptoCLoud | 10828 | Вчера, 15:37 автор: CryptoCLoud |
|
Боты могут делать пушподписки на моём сайте? | 3 | Megaspryt | 975 | Вчера, 5:18 автор: Skyworker |
|
Быстрый и качественный обмен на сайте Baksman.org Обмен Bitcoin, BTC-e, PM, Qiwi, Yandex money, Карты банк |
53 | Baksman | 33840 | 23.4.2024, 11:29 автор: Baksman |
|
Где получить виртуальную карту бесплатно? | 22 | Mixatraider | 5519 | 2.3.2024, 0:08 автор: Alekser |
Текстовая версия | Сейчас: 25.4.2024, 20:29 |