X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> Дубликаты страниц
Shm0N
Shm0N
Topic Starter сообщение 4.7.2016, 10:10; Ответить: Shm0N
Сообщение #1


Новичок
*

Группа: User
Сообщений: 24
Регистрация: 24.3.2015
Поблагодарили: 2 раза
Репутация:   0  


Всем доброго времени суток.

Есть такой сайт vseinet.ru , это интернет магазин примерно на 600к товаров, получается так, что при использовании фильтров(цена, популярность) созданные странички так же попадают в индекс, в общем на созданной странице ничего нового не появляется, все те же товары, что уже есть.

Мне кажется, что все эти фильтры только занимают место и не успевают проиндексироваться новые товары.
Нужно ли закрывать от индексации фильтры или нет?
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
semarg
semarg
сообщение 4.7.2016, 12:28; Ответить: semarg
Сообщение #2


Участник
***

Группа: User
Сообщений: 245
Регистрация: 3.12.2015
Поблагодарили: 39 раз
Репутация:   1  


Shm0N, да обязательно закройте их в файле robots.txt. В противном случае можете попасть под фильтры ПС.


--------------------


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
RushAgency
RushAgency
сообщение 8.7.2016, 15:50; Ответить: RushAgency
Сообщение #3


Бывалый
****

Группа: User
Сообщений: 401
Регистрация: 1.4.2015
Из: Москва
Поблагодарили: 144 раза
Репутация:   29  


Страницы фильтров, являющиеся дубликатами и не несущие дополнительной ценности, необходимо закрывать в robots.txt.


--------------------
SEO-аналитика: автоматизация подбора ключевых слов и проверка позиций rush-analytics.ru
База знаний по подбору семантики
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Dragmetall
Dragmetall
сообщение 11.7.2016, 13:33; Ответить: Dragmetall
Сообщение #4


Новичок
*

Группа: User
Сообщений: 32
Регистрация: 1.6.2016
Поблагодарили: 3 раза
Репутация:   0  


Проще всего закрыть в robots.txt, чтобы не создавать дубли. Если так получается, что реальной пользы от этих фильтров нет, стоит задуматься чтобы вообще их убрать. Если ваш сайт под Гугл, то рекомендую использовать конструкцию <meta name=“robots” content=“noindex,follow”> для страниц фильтров.

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Тема имеет прикрепленные файлыGOOGLE исключил больше 100к страниц
10 AleshJkaaa 2557 3.5.2018, 9:11
автор: Akeeloq
Открытая тема (нет новых ответов) Сколько страниц рекомендовано добавить перед индексацией?
11 Yurio 1803 15.3.2018, 13:51
автор: Winst
Открытая тема (нет новых ответов) Тема имеет прикрепленные файлыПовышение количества страниц в индексе
3 almmih1991 1381 9.3.2018, 8:06
автор: la_deesse
Открытая тема (нет новых ответов) Масштаб страниц сайта, как уменьшить?
2 ByhAnka 551 26.2.2018, 11:34
автор: ByhAnka
Открытая тема (нет новых ответов) Администрирование страниц, сообществ в социальных сетях.
4 xxxDanielxxx 2155 13.11.2017, 9:07
автор: xxxDanielxxx


 



RSS Текстовая версия Сейчас: 25.5.2018, 21:12
Дизайн