X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> Дубли страниц в Яндексе
batueff888
batueff888
Topic Starter сообщение 11.2.2015, 9:27; Ответить: batueff888
Сообщение #1


Участник
***

Группа: User
Сообщений: 146
Регистрация: 21.1.2015
Из: Россия
Поблагодарили: 54 раза
Репутация:   6  


Уважаемые знатоки! Помогите советом! Яндекс неожиданно проиндексировал огромное количество дублей только одной моей статьи. Как их закрыть в роботсе или другим образом? Все дубли с цифрами на конце. Вот такого вида:




Сообщение отредактировал batueff888 - 11.2.2015, 9:29
Эскизы прикрепленных изображений
Прикрепленное изображение
Прикрепленное изображение
 


--------------------
1
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
vinovachuk
vinovachuk
сообщение 13.2.2015, 0:52; Ответить: vinovachuk
Сообщение #2


Новичок
*

Группа: Viewer
Сообщений: 4
Регистрация: 12.2.2015
Поблагодарили: 0 раз
Репутация:   0  


batueff888,
Подожди недельку яндекс одумаеться осознает свою ошибку.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
idler
idler
сообщение 20.2.2015, 0:38; Ответить: idler
Сообщение #3


Новичок
*

Группа: Viewer
Сообщений: 11
Регистрация: 19.11.2010
Поблагодарили: 4 раза
Репутация:   1  


batueff888,
А вообще поищи в Яндекс Вебмастере раздел там можно удалять дубли страниц!!!

Найдите файл .htaccess в корне сайта. Добавьте в него следующий код после строки RewriteRule ^index\.php$ — [L]: 1
Код
RewriteCond %{QUERY_STRING} ^replytocom= [NC]
RewriteRule (.*) $1? [R=301,L]
RewriteRule (.+)/feed /$1 [R=301,L]
RewriteRule (.+)/attachment /$1 [R=301,L]
RewriteRule (.+)/comment-page /$1 [R=301,L]
RewriteRule (.+)/comments /$1 [R=301,L]
RewriteRule (.+)/trackback /$1 [R=301,L]
RewriteCond %{QUERY_STRING} ^attachment_id= [NC]
RewriteRule (.*) $1? [R=301,L]


Это набор 301-редиректов. Теперь при попытке робота зайти на страницы типа site.ru/post-name/feed/ его перебросит на оригинальную страницу типа site.ru/post-name/.
В активной теме блога найдите файл function.php и добавьте в него код после <?php:
Код
[code]/* Вставляет мета-тег роботс noindex,nofollow постраничного разбиения */
    function my_meta_noindex () {
        if (
            is_paged() //
        ) {echo "".''."\n";}
    }
add_action('wp_head', 'my_meta_noindex', 3); // добавляем свой noindex,nofollow в head


Теперь на страницах c постраничным разбиением записей (например, сайт,ру/page/2) поисковик наткнется на запрещающий индексацию мета-тег и не будет показывать страницу в выдаче. Этот пункт я ставлю под сомнение, т.к. многие оптимизаторы считают, что нельзя закрывать от индексации страницы с анонсами статей блога. Выполнять данный пункт или нет, решайте сами.

Сообщение отредактировал idler - 20.2.2015, 0:39


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Wolfhound
Wolfhound
сообщение 21.2.2015, 0:29; Ответить: Wolfhound
Сообщение #4


Бывалый
****

Группа: User
Сообщений: 290
Регистрация: 23.11.2014
Поблагодарили: 13 раз
Репутация:   3  


Ой, что то сегодня читал по этому поводу. Дословно не помню, но что то вроде:
"после ответов сервера на адреса сайта с www и без www, было выявлено множество код "200 ОК" что и приводит к появлению дюбелей, что бы исправить - надо полностью закрывать одну из версий сайта и ее текстовую копию от индексации в ПС
Как то вот так :hmhm:

Сообщение отредактировал Wolfhound - 21.2.2015, 0:30


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Jumanji
Jumanji
сообщение 21.2.2015, 10:58; Ответить: Jumanji
Сообщение #5


Новичок
*

Группа: User
Сообщений: 23
Регистрация: 18.5.2011
Поблагодарили: 8 раз
Репутация:   -1  


Столкнулся примерно с похожей ситуацией. Яндекс нашёл на сайт почти 105 тыс. страниц. Но там столько нет.
Прикрепленное изображение


Сообщение отредактировал Jumanji - 21.2.2015, 11:00
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Wolfhound
Wolfhound
сообщение 22.2.2015, 12:21; Ответить: Wolfhound
Сообщение #6


Бывалый
****

Группа: User
Сообщений: 290
Регистрация: 23.11.2014
Поблагодарили: 13 раз
Репутация:   3  


Где то читал, что дабы избежать дублей, нужно закрывать от индексации текстовые версии сайта и выбирать приоритет для адреса с www и без www.


--------------------


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
GlazAlmaz
GlazAlmaz
сообщение 22.2.2015, 18:50; Ответить: GlazAlmaz
Сообщение #7


Генератор СДЛ
******

Группа: Super Moderator
Сообщений: 2304
Регистрация: 28.8.2010
Поблагодарили: 1287 раз
Репутация:   83  


в .htaccess нужно прописать правило, чтобы фраза ".html/" автоматически заменялась на ".html" (т.е. слеш удалялся), тогда все дубли страниц автоматически выдадут ошибку 404 и со временем выпадут из индекса сами... а новые появляться не будут

Сообщение отредактировал GlazAlmaz - 22.2.2015, 18:51


--------------------
:: научу, как продвигать сайты :: SEO-шмео, все дела :)


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
theextra
theextra
сообщение 24.2.2015, 19:55; Ответить: theextra
Сообщение #8


Новичок
*

Группа: User
Сообщений: 32
Регистрация: 5.11.2014
Из: г. Тула
Поблагодарили: 3 раза
Репутация:   -2  


Не забывайте про канонические URL https://help.yandex.ru/webmaster/controlling-robot/html.xml


--------------------
Мое портфолио тут | продвижение сайтов, маркетинговое исследование, SEO-аудит, анализ юзабилити.
E-mail: fomin@seograde.ru, Skype: fomin-dev


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
batueff888
batueff888
Topic Starter сообщение 25.2.2015, 2:28; Ответить: batueff888
Сообщение #9


Участник
***

Группа: User
Сообщений: 146
Регистрация: 21.1.2015
Из: Россия
Поблагодарили: 54 раза
Репутация:   6  


Цитата(GlazAlmaz @ 22.2.2015, 20:50) *
в .htaccess нужно прописать правило, чтобы фраза ".html/" автоматически заменялась на ".html" (т.е. слеш удалялся),


В роботсе закрыл Disallow: /*.html/* , после апдейта 24.02 дубли исчезли. Ура. Всем спасибо.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Тема имеет прикрепленные файлыКак черные SEO оптимизаторы собирают миллионы посетителей по высоко-актуальным запросам в Яндексе
5 serg5777 1550 Вчера, 11:05
автор: Ley
Открытая тема (нет новых ответов) Индексирование страниц
9 munch 1674 14.12.2017, 12:23
автор: Akeeloq
Открытая тема (нет новых ответов) Кто продвигает сайт в яндексе массовой закупкой ссылок?
13 aleggator 1930 8.12.2017, 4:19
автор: KvadroJ
Открытая тема (нет новых ответов) Вебмастер яндекса показывает большое количество левых страниц с сайта
3 AlexsBloger 1011 4.12.2017, 22:10
автор: Pavel85
Открытая тема (нет новых ответов) Плагин вывода страниц на главную
2 sebadoh 938 30.11.2017, 8:00
автор: Nell


 



RSS Текстовая версия Сейчас: 16.12.2017, 13:49
Дизайн