X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

Открыть тему
Тема закрыта
> Проблема с гуглом после 04.02.2013, заблокированные страницы robots.txt
Simur
Simur
Topic Starter сообщение 6.2.2013, 12:33; Ответить: Simur
Сообщение #1


Всем привет!
После АПа 04.02.2013 в вебмастере гугла показывает заблокировано страниц 7 397 из-за robots.txt.

До этого было все ок, с роботсом ничего не делал.
Вот мой роботс:
Развернуть/Свернуть
User-agent: *
Disallow: /cgi-bin/
Disallow: /engine/
Disallow: /language/
Disallow: /templates/
Disallow: /engine/go.php
Disallow: /newposts/
Disallow: /search/
Disallow: /user/
Disallow: /page/
Disallow: /tags/
Disallow: /*/page/
Disallow: /*/*/page/
Disallow: /*print
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=members
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm

Sitemap: http://сайт.ru/sitemap.xml

User-agent: Yandex
Disallow: /cgi-bin/
Disallow: /engine/
Disallow: /language/
Disallow: /templates/
Disallow: /engine/go.php
Disallow: /newposts/
Disallow: /search/
Disallow: /user/
Disallow: /page/
Disallow: /tags/
Disallow: /*/page/
Disallow: /*/*/page/
Disallow: /*print
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=members
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm

Host: www.сайт.ru
Sitemap: http://сайт.ru/sitemap.xml


Подскажите пожалуйста, что не так? Заранее спасибо rolleyes.gif

Сообщение отредактировал falken - 6.2.2013, 12:54
Причина редактирования: +spoiler


--------------------
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
_Daniel_
_Daniel_
сообщение 6.2.2013, 16:17; Ответить: _Daniel_
Сообщение #2


Simur, так в чем собственно проблема, в гугл вебмастере показывает кол-во страниц которые закрыты c помощью robots.txt
У меня 32тыс закрыто.

Сообщение отредактировал _Daniel_ - 6.2.2013, 16:19
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Simur
Simur
Topic Starter сообщение 6.2.2013, 16:47; Ответить: Simur
Сообщение #3


Просто подумал, что может у меня в роботсе что-то нужное закрыто...


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Саймон
Саймон
сообщение 6.2.2013, 20:02; Ответить: Саймон
Сообщение #4


ТС, а роботс реально помогает закрыть все что в нём прописано?
Просто у меня всё равно раньше индексировалось что бы я там не писал.
Потом нашёл другой способ, он реально рабочий.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Simur
Simur
Topic Starter сообщение 6.2.2013, 20:43; Ответить: Simur
Сообщение #5


Еслиб я знал ответ на Ваш вопрос, то я сам бы здесь не спрашивал)
Роботс закрывал не я, а оптимизаторы...
Возможно я был не внимательным и столько, и было заблокированных страниц...
Ув. модераторы, если роботс правильный и у меня нет с ним проблем, тогда тему можно закрывать.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Maxim-KL
Maxim-KL
сообщение 6.2.2013, 21:16; Ответить: Maxim-KL
Сообщение #6


Саймон, У гугла есть такая привычка индексить все что он видит и иногда не обращать внимания на роботс. Но правда все что закрыто в роботс и гугл все равно проиндексил попадает в сопли...

Какой другой способ? Поделитесь если не секрет... popcorn2.gif


--------------------
Забанен за мошенничество
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Саймон
Саймон
сообщение 6.2.2013, 23:33; Ответить: Саймон
Сообщение #7


Maxim-KL, ну это для DLE я нашёл, др.движки не использую.
Научился у АлаичЪа
Начинайте читать с Запрещаем индексацию разделов сайта при помощи мета-тега robots
У меня реально работает. Позакрывал нафиг всё, кроме постов и категорий. Только они в индексе.

Сообщение отредактировал Саймон - 6.2.2013, 23:34


--------------------


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
pulsar21
pulsar21
сообщение 10.2.2013, 16:45; Ответить: pulsar21
Сообщение #8


Совершенно верно, гугл часто игнорирует запреты в роботсе. Я делаю нужные запреты и удаляю вручную в вэбмастере гугла ненужные страницы. И впредь они в индекс больше не попадают. Действенный способ для сайта с небольшим кол-вом страниц.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
KipiaSoft
KipiaSoft
сообщение 10.2.2013, 17:43; Ответить: KipiaSoft
Сообщение #9


(Simur @ 6.2.2013, 12:33) *
После АПа 04.02.2013 в вебмастере гугла показывает заблокировано страниц 7 397 из-за robots.txt.

встречный вопрос - а сколько на сайте реально размещено новостей и статей? файлом robots.txt исключены дубли одинаковых страниц. По идее если в индексе остались только оригинальные материалы, то файл по сути выполнил свою работу

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Нужен кодер, чтобы пофиксить ошибку Wordpress после переноса сайта
0 Alex-777 866 7.4.2024, 18:05
автор: Alex-777
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыСостояние после ампутации - нужна помощь
благотворительный топик
49 vitvirtual 5876 1.4.2024, 5:23
автор: vitvirtual
Горячая тема (нет новых ответов) Исчезающие фрилансеры после предоплаты. Зачем? Какой смысл?
36 metvekot 9583 31.3.2024, 1:01
автор: Liudmila
Открытая тема (нет новых ответов) После обновления all in one seo pack пропал keywords?
16 pozitron123 3537 24.2.2021, 15:13
автор: kozak199110
Открытая тема (нет новых ответов) После переноса сайт на DLE перестал корректно работать
Ищу того, кто может помочь заново все верно настроить
6 mr_LasVegas 2000 20.7.2020, 20:52
автор: asd4


 



RSS Текстовая версия Сейчас: 20.4.2024, 5:55
Дизайн