Помощник
|
Как запретить Гуглу, Как бороться с ненужными ссылками? |
SATURN25
|
Сообщение
#1
|
||
|
|
||
|
|||
loginmain |
19.5.2014, 22:08;
Ответить: loginmain
Сообщение
#2
|
|
User-Agent: *
Disallow: /?* Disallow: /*/feed/ |
|
|
astraliens |
19.5.2014, 22:33;
Ответить: astraliens
Сообщение
#3
|
|
только лучше /?attachment_id на случай, если там кроме этого ещё есть какие-то страницы, начинающиеся с такой конструкции
-------------------- |
|
|
VovaKorjos |
22.5.2014, 0:23;
Ответить: VovaKorjos
Сообщение
#4
|
|
Роботс - всего лишь рекомендация для ПС, но не последняя инстанция. Поэтому понятие "запретить" - использовать не рекомендую, достоверных и 100%-тных источников нет.
|
|
|
SATURN25
|
Сообщение
#5
|
|
VovaKorjos, Да, что прописано в роботсе для бота гугла, он как будто и не замечает, всё равно сканирует, закидывает в суплемент индекс а там под названием пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...". То ли Яндекс бот, если в роботс сказано "НЕ ЛЕЗЬ!", он и не лезет берёт нужное и всё...
|
|
|
loginmain |
22.5.2014, 17:38;
Ответить: loginmain
Сообщение
#6
|
|
Есть у гугля такие грешки, поэтому он советует запрещать множеством способов. Кроме роботс, можно подключить и мета-теги, а также включить блокировку через панель вебмастера. Но если стоит "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее...", то особо можно не волноваться, в основной выдаче этого контента точно нет.
|
|
|
SATURN25
|
Сообщение
#7
|
|
loginmain, Да но они в "мусорном индексе". Смотрю по сервисам 30% не под фильтром в индексе гугла. У меня пока всего 59 записей на блоге, а в гугле их и по 400 бывает,удаляю каждый день почти. Сейчас вот поудалял все файлы которые отвечают за отправку пинга ботам. Лучше в ручную добавлять страницы буду. А то стоит что то подредактировать как тут же 15-20 левых записей впридачу заглатывает гугловский бот.
|
|
|
klassman |
23.5.2014, 9:36;
Ответить: klassman
Сообщение
#8
|
|
А то стоит что то подредактировать как тут же 15-20 левых записей впридачу заглатывает гугловский бот. Мощно, кроме роботса существует несколько простых вариантов закрыть такие странички от индекса, почитайте в помощи от гугла, там всегда есть полезная информация на этот счет, самому очень даже помогло. -------------------- |
|
|
Kredshev |
29.5.2014, 9:36;
Ответить: Kredshev
Сообщение
#9
|
|
|
<meta name="robots" content="noindex,nofollow" /> очень даже подойдет
Да и в роботе можно закрыть, пройдет время и страницы уберутся.
-------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Как вы отдыхаете от работы за компом | 151 | adw-kupon.ru | 19818 | Вчера, 13:52 автор: Vmir |
|
Как вы бросили работу и перешли на заработок с сайтов? | 20 | uahomka | 3447 | Вчера, 11:54 автор: Skyworker |
|
Как в пушсетках покупают по 100-200 тысяч кликов за день? | 1 | Boymaster | 517 | Вчера, 11:45 автор: Skyworker |
|
Как вывести деньги в Украине с заблокированного Юмани ? | 30 | freeax | 5016 | 20.4.2024, 16:49 автор: Liudmila |
|
Арбитражники, как ведете учет расходов и доходов? | 13 | Boymaster | 2021 | 20.4.2024, 15:06 автор: Boymaster |
Текстовая версия | Сейчас: 24.4.2024, 3:36 |