Помощник
|
Дубли страниц, подскажите как убрать |
shurche
|
Сообщение
#1
|
||
|
|
||
|
|||
MrWolf |
10.8.2011, 16:34;
Ответить: MrWolf
Сообщение
#2
|
|
А в вы не думали, что, чисто теоретически, то, что вы закрыли почти все страницы, кроме конкретно новостей и есть причиной плохой индексации?
Перелинковка и все такое, все таки.. А вы это на корню порезали. Хотя, я могу и ошибаться. Сообщение отредактировал MrWolf - 10.8.2011, 16:34 |
|
|
genjnat |
10.8.2011, 16:47;
Ответить: genjnat
Сообщение
#3
|
|
Перелинковку можно и другими, более эффективными методами делать
Самый простой и быстрый способ удалить страницы из индекса Гугла Инструменты для вебмастеров/Конфигурация сайта/Доступ для сканера/Удалить URL Сообщение отредактировал genjnat - 10.8.2011, 17:00 |
|
|
shurche
|
Сообщение
#4
|
|
Просто по Гуглу страницц уже 1600, а реально записей 130. Вот от отчаяния и закрываю. Поэтому и помощь нужна. Как лучше сделать?
|
|
|
genjnat |
10.8.2011, 16:58;
Ответить: genjnat
Сообщение
#5
|
|
Просто по Гуглу страницц уже 1600, а реально записей 130. Вот от отчаяния и закрываю. Поэтому и помощь нужна. Как лучше сделать? Закрыли и правильно, но делать это сразу нужно было, естественным путем, выпадают они очень долго. Делайте как я выше написал, метод проверенный, страницы удаляются из поисковой базы в течении одного - двух дней. |
|
|
shurche
|
Сообщение
#6
|
|
Перелинковку можно и другими, более эффективными методами делать Самый простой и быстрый способ удалить страницы из индекса Гугла Инструменты для вебмастеров/Конфигурация сайта/Доступ для сканера/Удалить URL Проблема в том, что с выходом новой статьи, в индексе Гугла появляется еще сотня. Может я не прав, но сео бар показывает 1600, вчера показывал 1300, а было 600, при том что записей то меньше 150. Поэтому нужно принципальный выход из ситуации, правильная настройка. В этом и нужна помощь. Вроде все инструкции по плагинам пересмотрел, короче я в шоке. |
|
|
wlad2 |
10.8.2011, 17:30;
Ответить: wlad2
Сообщение
#7
|
|
если страницы проиндексировались то robots.txt уже не поможет.. пробуйте юзать плагины закрывающие с помощью мета тега роботс..
|
|
|
genjnat |
10.8.2011, 17:36;
Ответить: genjnat
Сообщение
#8
|
|
если страницы проиндексировались то robots.txt уже не поможет Если просто запретить в роботс, то ждать придется долго ТС Определите все левые страницы, только не через сео бар, а через гугл site:http://ваш сайт/ Запретите их к индексации, и удалите из индекса вручную, через панель инструментов. Все просто Ну а что у вас там с плагинами намучено, кроме вас никто не разберется. Сообщение отредактировал genjnat - 10.8.2011, 17:40 |
|
|
CFe |
10.8.2011, 22:47;
Ответить: CFe
Сообщение
#9
|
|
странно, на всех моих блогах на wp при похожем роботсе и плагине all in one seo пак дублей практически нет (при этом не закрыты страницы категорий и последующие страницы главной).
Поидее, если вы все закрыли то при добавлении новых записей дубли появлятся не должны, а быстро удалить уже существующие, как сказали выше, можно только вручную через панель вебмастеров гугла. |
|
|
Hrapun |
11.8.2011, 0:19;
Ответить: Hrapun
Сообщение
#10
|
|
Проиндексированные страницы в Google естественно выпадают годами. Есть живой пример.
|
|
|
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Быстрая индексация страниц сайта и обратных ссылок - 2Index | 39 | 2Index | 6749 | 22.4.2024, 16:16 автор: 2Index |
|
Услуга по индексации страниц в Google | 9 | FUTP | 3739 | 12.4.2023, 21:31 автор: Magicclickpartners |
|
Ссылки с Главных страниц (Морд) под Буржнет Для сайтов технической и околотехнической тематик |
0 | Reyus | 1419 | 7.4.2022, 14:33 автор: Reyus |
|
Интересуют EN сайты 5-10 страниц. | 5 | Solomoni | 6186 | 15.9.2021, 13:20 автор: Solomoni |
|
PBN Ссылки под БУРЖ (с главных страниц и статей). Личная сетка | Тематичное соседство | 0 | PBN_Links_Sale | 1482 | 12.7.2021, 11:20 автор: PBN_Links_Sale |
Текстовая версия | Сейчас: 25.4.2024, 21:37 |