Помощник
|
Проблема с гуглом после 04.02.2013, заблокированные страницы robots.txt |
Simur
|
Сообщение
#1
|
||
|
|
||
|
|||
_Daniel_ |
6.2.2013, 16:17;
Ответить: _Daniel_
Сообщение
#2
|
|
Simur, так в чем собственно проблема, в гугл вебмастере показывает кол-во страниц которые закрыты c помощью robots.txt
У меня 32тыс закрыто. Сообщение отредактировал _Daniel_ - 6.2.2013, 16:19 |
|
|
Simur
|
Сообщение
#3
|
|
Просто подумал, что может у меня в роботсе что-то нужное закрыто...
-------------------- |
|
|
Саймон |
6.2.2013, 20:02;
Ответить: Саймон
Сообщение
#4
|
|
ТС, а роботс реально помогает закрыть все что в нём прописано?
Просто у меня всё равно раньше индексировалось что бы я там не писал. Потом нашёл другой способ, он реально рабочий. -------------------- |
|
|
Simur
|
Сообщение
#5
|
|
Еслиб я знал ответ на Ваш вопрос, то я сам бы здесь не спрашивал)
Роботс закрывал не я, а оптимизаторы... Возможно я был не внимательным и столько, и было заблокированных страниц... Ув. модераторы, если роботс правильный и у меня нет с ним проблем, тогда тему можно закрывать. -------------------- |
|
|
Maxim-KL |
6.2.2013, 21:16;
Ответить: Maxim-KL
Сообщение
#6
|
|
Саймон, У гугла есть такая привычка индексить все что он видит и иногда не обращать внимания на роботс. Но правда все что закрыто в роботс и гугл все равно проиндексил попадает в сопли...
Какой другой способ? Поделитесь если не секрет... -------------------- |
|
|
Саймон |
6.2.2013, 23:33;
Ответить: Саймон
Сообщение
#7
|
|
Maxim-KL, ну это для DLE я нашёл, др.движки не использую.
Научился у АлаичЪа Начинайте читать с Запрещаем индексацию разделов сайта при помощи мета-тега robots У меня реально работает. Позакрывал нафиг всё, кроме постов и категорий. Только они в индексе. Сообщение отредактировал Саймон - 6.2.2013, 23:34 -------------------- |
|
|
pulsar21 |
10.2.2013, 16:45;
Ответить: pulsar21
Сообщение
#8
|
|
Совершенно верно, гугл часто игнорирует запреты в роботсе. Я делаю нужные запреты и удаляю вручную в вэбмастере гугла ненужные страницы. И впредь они в индекс больше не попадают. Действенный способ для сайта с небольшим кол-вом страниц.
-------------------- |
|
|
KipiaSoft |
10.2.2013, 17:43;
Ответить: KipiaSoft
Сообщение
#9
|
|
|
После АПа 04.02.2013 в вебмастере гугла показывает заблокировано страниц 7 397 из-за robots.txt. встречный вопрос - а сколько на сайте реально размещено новостей и статей? файлом robots.txt исключены дубли одинаковых страниц. По идее если в индексе остались только оригинальные материалы, то файл по сути выполнил свою работу
-------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Нужен кодер, чтобы пофиксить ошибку Wordpress после переноса сайта | 0 | Alex-777 | 922 | 7.4.2024, 18:05 автор: Alex-777 |
|
Состояние после ампутации - нужна помощь благотворительный топик |
49 | vitvirtual | 5893 | 1.4.2024, 5:23 автор: vitvirtual |
|
Исчезающие фрилансеры после предоплаты. Зачем? Какой смысл? | 36 | metvekot | 9586 | 31.3.2024, 1:01 автор: Liudmila |
|
После обновления all in one seo pack пропал keywords? | 16 | pozitron123 | 3538 | 24.2.2021, 15:13 автор: kozak199110 |
|
После переноса сайт на DLE перестал корректно работать Ищу того, кто может помочь заново все верно настроить |
6 | mr_LasVegas | 2002 | 20.7.2020, 20:52 автор: asd4 |
Текстовая версия | Сейчас: 23.4.2024, 22:01 |