X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Гугл пишет что сайт недоступен
mklimru
mklimru
Topic Starter сообщение 24.7.2015, 11:59; Ответить: mklimru
Сообщение #1


Подскажите пожалуйста что не так? Я составляла все это 4 года назад и, честно говоря, мало что помню. Да и проблем в эти годы не было. :huh:


"Google не удалось просканировать ваш сайт, так как закрыт доступ к файлу robots.txt."

User-agent: *
Disallow:

User-Agent: Yandex
Allow: /
Host: mklim.ru

Disallow: /staty?mode=view&post_id=*&*
Disallow: */search

При этом инструмент проверки файла robots.txt никаких ошибок не находит и все доступно.


--------------------
обслуживание кондиционеров
Время, которое у нас есть, это деньги, которых у нас нет.
обслуживание сплит систем
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
phoenixaa
phoenixaa
сообщение 25.7.2015, 19:42; Ответить: phoenixaa
Сообщение #2


А вы попробуйте ввести в гугле "правильный robots.txt" (там читать не так много) и сделайте нормальный.
:)
Вторая строчка у вас непонятно, что запрещает...Лучше напишите вместо нее
Allow: /

Сообщение отредактировал phoenixaa - 25.7.2015, 19:46
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
GeneralProtect
GeneralProtect
сообщение 20.8.2015, 23:05; Ответить: GeneralProtect
Сообщение #3


Правильный код должен содержать хотя бы одну директиву «Disallow» после каждой записи «User-agent». Пустой файл предполагает разрешение на индексирование всего сайта.
Верхняя секция разрешает индексацию всего содержимого без каких-либо исключений все ботам, а нижняя часть не совсем правильная, попробуйте так:

User-agent: *
Disallow:

User-Agent: Yandex
Allow: /
Disallow: /staty?mode=view&post_id=*&*
Disallow: */search
Host: mklim.ru
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Parjer
Parjer
сообщение 1.9.2015, 13:41; Ответить: Parjer
Сообщение #4


mklimru, Помоему именно для гугла и закрыто сканирование сайта по директивой:
User-agent:*
Disallow:
Гугл понимает что сканирование всех страниц, начиная с главной - запрещено, нужно указать правильное сканирование страниц для гугла в файле роботс,
ну как пример:
User-agent:*
Disallow: /wp-admin
Disallow: /reviews
Disallow: /*?*
Disallow: /*?
Обращайтесь в ЛС - помогу правильно настроить
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
AnnaDem
AnnaDem
сообщение 8.9.2015, 16:15; Ответить: AnnaDem
Сообщение #5


mklimru, вы все-таки нашли решение? в чем именно была проблема?

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
2 чел. читают эту тему (гостей: 2, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Ваш сайт блокирует Роскомнадзор?
23 hollywooduk 5096 27.3.2024, 10:43
автор: hollywooduk
Открытая тема (нет новых ответов) Тысячи ботовых переходов на сайт
18 Suagaring 4542 26.3.2024, 21:42
автор: c4p1t4l15t
Горячая тема (нет новых ответов) Во что сегодня инвестировать?
Делимся своими приносящими прибыль вариантами
69 traveliver 4458 25.3.2024, 6:48
автор: Skyworker
Открытая тема (нет новых ответов) Блог: городской сми сайт в Прибалтике
23 kapusta1 3540 24.3.2024, 22:02
автор: Liudmila
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлы[Услуги] Баннер/Графика/Сайт
238 FillPlay 179408 23.3.2024, 16:31
автор: freeax


 



RSS Текстовая версия Сейчас: 29.3.2024, 19:11
Дизайн