X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Гугл пишет что сайт недоступен
mklimru
mklimru
Topic Starter сообщение 24.7.2015, 11:59; Ответить: mklimru
Сообщение #1


Подскажите пожалуйста что не так? Я составляла все это 4 года назад и, честно говоря, мало что помню. Да и проблем в эти годы не было. :huh:


"Google не удалось просканировать ваш сайт, так как закрыт доступ к файлу robots.txt."

User-agent: *
Disallow:

User-Agent: Yandex
Allow: /
Host: mklim.ru

Disallow: /staty?mode=view&post_id=*&*
Disallow: */search

При этом инструмент проверки файла robots.txt никаких ошибок не находит и все доступно.


--------------------
обслуживание кондиционеров
Время, которое у нас есть, это деньги, которых у нас нет.
обслуживание сплит систем
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
phoenixaa
phoenixaa
сообщение 25.7.2015, 19:42; Ответить: phoenixaa
Сообщение #2


А вы попробуйте ввести в гугле "правильный robots.txt" (там читать не так много) и сделайте нормальный.
:)
Вторая строчка у вас непонятно, что запрещает...Лучше напишите вместо нее
Allow: /

Сообщение отредактировал phoenixaa - 25.7.2015, 19:46
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
GeneralProtect
GeneralProtect
сообщение 20.8.2015, 23:05; Ответить: GeneralProtect
Сообщение #3


Правильный код должен содержать хотя бы одну директиву «Disallow» после каждой записи «User-agent». Пустой файл предполагает разрешение на индексирование всего сайта.
Верхняя секция разрешает индексацию всего содержимого без каких-либо исключений все ботам, а нижняя часть не совсем правильная, попробуйте так:

User-agent: *
Disallow:

User-Agent: Yandex
Allow: /
Disallow: /staty?mode=view&post_id=*&*
Disallow: */search
Host: mklim.ru
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Parjer
Parjer
сообщение 1.9.2015, 13:41; Ответить: Parjer
Сообщение #4


mklimru, Помоему именно для гугла и закрыто сканирование сайта по директивой:
User-agent:*
Disallow:
Гугл понимает что сканирование всех страниц, начиная с главной - запрещено, нужно указать правильное сканирование страниц для гугла в файле роботс,
ну как пример:
User-agent:*
Disallow: /wp-admin
Disallow: /reviews
Disallow: /*?*
Disallow: /*?
Обращайтесь в ЛС - помогу правильно настроить
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
AnnaDem
AnnaDem
сообщение 8.9.2015, 16:15; Ответить: AnnaDem
Сообщение #5


mklimru, вы все-таки нашли решение? в чем именно была проблема?

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
2 чел. читают эту тему (гостей: 2, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) Во что сегодня инвестировать?
Делимся своими приносящими прибыль вариантами
75 traveliver 4953 Вчера, 16:32
автор: Boymaster
Открытая тема (нет новых ответов) Ваш сайт блокирует Роскомнадзор?
27 hollywooduk 5719 17.4.2024, 0:19
автор: Omaxis
Открытая тема (нет новых ответов) Прототипирование + дизайн + вёрстка = красивый и эффективный сайт под ключ
0 bunneh 349 16.4.2024, 18:02
автор: bunneh
Открытая тема (нет новых ответов) Если в сайт с одними ключами, которые там долго, добавить новую рубрику с новыми ключами
2 Tutich 1234 16.4.2024, 8:27
автор: Tutich
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлы[Услуги] Баннер/Графика/Сайт
240 FillPlay 180527 31.3.2024, 22:58
автор: FillPlay


 



RSS Текстовая версия Сейчас: 20.4.2024, 6:16
Дизайн