Помощник
|
Дубли страниц на сайте, Как яндекс относиться к таким дублям и дубли ли это? |
torrent24
|
Сообщение
#1
|
||
|
|
||
|
|||
SATURN25 |
27.4.2014, 12:08;
Ответить: SATURN25
Сообщение
#2
|
|
torrent24, Тоже самое и у меня.. Устал удалять уже эти "хвосты" с вебмастера гугла. На запрет в robors.txt, ему наплевать,он игнорирует дисалофф, собирает всё подряд, как назло сегодня удалю страницу а завтра глядь уже 2 новых взамен. Прям гугл - бот издеватель какой то...page/1/2/3/4/.... этого быть не должно, это от пагинации дубли. Гугл считает это за дубли и отправляет в фильтр. Мне пришлось даже сменить домен из за этого. Из 400 страниц НЕ ПОД ФИЛЬТРОМ 11% было, всё потому что дубли были. Хорошо тут на формуме подсказали в чём проблема.
|
|
|
torrent24
|
Сообщение
#3
|
|
SATURN25,
Я про яндекс имею ввиду |
|
|
SATURN25 |
27.4.2014, 12:36;
Ответить: SATURN25
Сообщение
#4
|
|
|
|
|
torrent24
|
Сообщение
#5
|
|
SATURN25,
Вы не поняли вопроса наверно.. Я спросил дубли ли это и как относиться к ним яндекс.. как убрать их и так понятно.. жду ответ от других опытных людей , кто знает ответ 100% |
|
|
SATURN25 |
27.4.2014, 12:57;
Ответить: SATURN25
Сообщение
#6
|
|
torrent24, torrent24, Глянь на скрин я тебе говорю, у каждой страницы с префиксом "page", есть оригинальная страница. Вот тебе и ответ - это дубли! От пагинации. Снизу страницы видел циферки 1,2,3... Вот оттуда.
SATURN25, "Дубли ли это? если титл одинаковый , но внутри страницы разные новости естественно.. или лучше закрыть их в роботе /page/* ?" - Удали лишние страницы, сделай для каждой оригинальный тайтл раз на страницах контент разный, робот берёт в индекс название url из тайтла а не из контента. |
|
|
torrent24
|
Сообщение
#7
|
|
|
|
|
Artyom91 |
27.4.2014, 17:44;
Ответить: Artyom91
Сообщение
#8
|
|
Закройте от индексации страницы пагинации.
|
|
|
master_jeday |
29.4.2014, 18:59;
Ответить: master_jeday
Сообщение
#9
|
|
|
По ссылкам в старт посте 404. Но предполагаю, что это страницы анонсов новостей. Яндекс относится как к нечетким дублям (контент в анонсах частично дублирует контент основных страниц). К тому же, контент постоянно "смещается" при появлении новой новости. Соответственно, контент на таких страницах динамический. Если другого контента на страницах нет, кроме дублей, то лучше закрыть в роботсе. Лично я так делаю. Однако полным полно примеров, когда в выдаче куча мусора и сайты себя чувствуют прекрасно.
|
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Боты могут делать пушподписки на моём сайте? | 3 | Megaspryt | 893 | Сегодня, 5:18 автор: Skyworker |
|
Быстрый и качественный обмен на сайте Baksman.org Обмен Bitcoin, BTC-e, PM, Qiwi, Yandex money, Карты банк |
53 | Baksman | 33770 | Вчера, 11:29 автор: Baksman |
|
Быстрая индексация страниц сайта и обратных ссылок - 2Index | 39 | 2Index | 6724 | 22.4.2024, 16:16 автор: 2Index |
|
CryptoCloud — прием USDT, BTC, ETH, LTC на любом сайте | 36 | CryptoCLoud | 10666 | 16.4.2024, 16:02 автор: CryptoCLoud |
|
Странный трафик на сайте длительное время | 33 | TABAK | 8935 | 12.4.2024, 5:56 автор: Skyworker |
Текстовая версия | Сейчас: 24.4.2024, 9:01 |