Помощник
|
Что и как зыкрыть от индексации?, Индексируются не те темы |
Suliman
|
Сообщение
#1
|
||
|
|
||
|
|||
Ortero |
18.10.2012, 18:26;
Ответить: Ortero
Сообщение
#2
|
|
robots.txt у вас есть?
-------------------- |
|
|
Rgsu2008 |
18.10.2012, 18:42;
Ответить: Rgsu2008
Сообщение
#3
|
|
Suliman, разместите в корне сайта файл robots.txt и в нем пропишите то, что не должны индексировать ПСы. К примеру, чтобы не индексировал профиля закройте их в robots.txt командой:
Disallow: /user/ Поисковик нормально оценивает и индексирует все страницы, так как на них нет запрета в robots.txt. P.S. у Вас файла robots.txt по-моему вообще нет. -------------------- |
|
|
ArtHel |
18.10.2012, 18:51;
Ответить: ArtHel
Сообщение
#4
|
|
У вас беда с урлами на сайте, материал о котором вы говорите отдается как минимум по 3 разным урлам, которые сразу видны, а если покопаться то можно еще найти. (в форуме, в тегах)
Вам надо убрать дубли эти первым делом, потом создать robots.txt в котором закрыть от индексации все страницы, которые по вашему мнению индексироваться не должны (в том числе закрыть туда страницы на которых пока нет контента (hypertags, Rules) ну вы сами знаете, потом когда контент появится - откроете). Роботы просто не знают на что глаз положить во всем этом многообразии)) а если серьезно, ваш материал не в индексе, поэтому по вашему запросу в выдаче та страница, на которой есть название статьи. вот 4 страницы вашего сайта из индекса, материала о котором вы говорите среди них нет. |
|
|
Suliman
|
Сообщение
#5
|
|
На сколько правильным будет закрыть ссылки лишние страницы именно через robots.txt?
Какие есть еще варианты закрытия? Получается облако тегов создает дублирущиеся страницы? Определить в индексе ли страница можно вбив с нее цитату. В моем случае по цитатам ничего не нахоидся и отсюда можно сделать вывод, что страницы не в индексе, правильно? -------------------- |
|
|
ArtHel |
19.10.2012, 11:11;
Ответить: ArtHel
Сообщение
#6
|
|
|
Suliman, закрыть страницы через robots.txt - самый правильный вариант.
В вашем случае да, облако тегов создает дубли, более того у вас зачем то приписывается к урлу /1, получается документ отдается и по основному урлу site.ru/tags/название и по дублю site.ru/tags/название/1 В вашем случае надо добавлять сайт в панель вебмастера, смотреть страницы загруженные роботом и выкинутые из индекса и все не нужное закрывать от индексации, ну и наводить порядок на сайте конечно. Чтобы определить в индексе ли страница достаточно вбить ее урл в строку поиска, а еще лучше поставьте себе плагин, который показывает много полезной информации, в том числе проиндексирована ли страница, я например rds-бар использую.
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Есть быстрый интернет 1Gb/s Что посоветуете? Какие варианты заработка есть с быстрым оптоволокном сегодня? |
0 | Jast1 | 103 | Сегодня, 1:34 автор: Jast1 |
|
Как в пушсетках покупают по 100-200 тысяч кликов за день? | 2 | Boymaster | 719 | 24.4.2024, 17:52 автор: Boymaster |
|
Как вы отдыхаете от работы за компом | 151 | adw-kupon.ru | 19905 | 23.4.2024, 13:52 автор: Vmir |
|
Как вы бросили работу и перешли на заработок с сайтов? | 20 | uahomka | 3483 | 23.4.2024, 11:54 автор: Skyworker |
|
Во что Вы играете? | 400 | Vmir | 68018 | 20.4.2024, 18:39 автор: SaintExchange |
Текстовая версия | Сейчас: 26.4.2024, 3:11 |