Помощник
|
![]() |
![]() |
Сообщение
#1
|
||
![]() |
|
||
|
|||
![]() |
![]()
Сообщение
#2
|
![]() |
537 - это и есть число страниц, которые загрузил робот. Сюда входят все страницы, известные роботу. Даже те, которые запрещены к индексации.
-------------------- |
|
|
![]() |
Сообщение
#3
|
![]() |
Ortero, нужен список загруженных роботом страниц.
Даже те, которые запрещены к индексации Что-то я сомневаюсь. Иначе бы там было в десятки больше пунктов, в том числе и файлы движка CMS. Сообщение отредактировал bescom - 10.6.2014, 9:03 -------------------- |
|
|
![]() |
![]()
Сообщение
#4
|
![]() |
1. Может быть, кто-то знает, как у Яндекса выпытать список загруженных роботом страниц? В Вебмастере эта информация недоступна. 2. Может быть, кто-то знает онлайн-сервисы или программы, которые считывают адреса страниц сайтов с учетом robots.txt, то есть в определенном смысле имитируют считывание адресов подобно роботу Яши? 1. Список думаю что не выпытаешь. 2. page-weight - он ничего не имитирует, но страницы покажет твоего сайта и кто на кого ссылается. Вообще ситуация у тебя ничуть не странная. Грузит много, а в индекс попадает меньше - это может быть как из-за того что часть страниц ненадлежащего качества, так и из-за того что просто он ещё не решил по каким запросам показывать, и стоит ли показывать вообще -------------------- |
|
|
![]() |
![]()
Сообщение
#5
|
![]() |
bescom, а разве там нельзя в xls выгрузить?
Можно xenu попробовать. Она все страницы показывает. Цитата Что-то я сомневаюсь. Ну значит робот до этих страниц не дошел. Сообщение отредактировал Ortero - 10.6.2014, 10:14 -------------------- |
|
|
![]() |
![]()
Сообщение
#6
|
![]() |
2. Может быть, кто-то знает онлайн-сервисы или программы, которые считывают адреса страниц сайтов с учетом robots.txt text.ru добавляешь сайт на проверку уникальности и сервис тебе предварительно бесплатно проиндексирует страницы с учетом роботс -------------------- |
|
|
![]() |
Сообщение
#7
|
|
![]() |
Грузит много, а в индекс попадает меньше - это может быть как из-за того что часть страниц ненадлежащего качества, так и из-за того что просто он ещё не решил по каким запросам показывать, и стоит ли показывать вообще Нет, тут дело не в том, на сайте реально 146 страниц, а робот грузит 537, то есть проблема именно в дублях. а разве там нельзя в xls выгрузить? Нет, таблицей выгружается только история, когда заходил робот и сколько страниц нашел. Можно xenu попробовать. Она все страницы показывает. Вот в том и дело, что абсолютно все, даже закрытые от индексации и незагружаемые роботом. Точно так же не подходит и SitemapGenerator. значит робот до этих страниц не дошел За несколько лет? ![]() text.ru добавляешь сайт на проверку уникальности и сервис тебе предварительно бесплатно проиндексирует страницы с учетом роботс Спасибо. Ушел пробовать. Друзья, вопрос решен, подсказали добрые люди. ![]() Вот программа, которая полностью отвечает моему запросу, а также может очень многим помочь и с другими вопросами. Пробуйте, не пожалеете - http://netpeak.ua/soft/netpeak-spider/ Я пробую и другие советы, но уже как дополнение. Еще один сервис http://text.ru/url-check показал хороший результат - тоже, как и Netpeak Spider, произвел верное сканирование с учетом robots.txt
Сообщение отредактировал bescom - 10.6.2014, 17:40 -------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
![]() |
Все факторы ранжирования яндекса (1922 штуки) Слив из исходного кода яндекса |
50 | ARsHi | 4627 | 15.3.2023, 21:39 автор: MGorelkin |
![]() |
Какие страницы продвигать ссылками: трафиковые или отстающие? | 14 | ELECTROKATZE | 822 | 12.3.2023, 16:41 автор: MGorelkin |
![]() |
"Бывшая главная "Яндекса" - yandex.ru - стала порталом dzen.ru | 43 | regem | 7436 | 3.3.2023, 8:17 автор: hollywooduk |
![]() |
![]() |
12 | MakDonald | 971 | 1.1.2023, 14:23 автор: MakDonald |
![]() |
![]() |
6 | Mikhail_B | 1339 | 4.9.2022, 19:21 автор: Monah |
![]() |
Текстовая версия | Сейчас: 24.3.2023, 19:56 |