X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

2 страниц V   1 2 >
Открыть тему
Тема закрыта
> Запрет дублирующей страницы?
nsg
nsg
Topic Starter сообщение 10.6.2011, 16:04; Ответить: nsg
Сообщение #1


Уважаемые форумчане!

Подскажите пожалуйста - как правильно запретить индексацию дублирующей страницы в robots.txt ?

Страница оригинал - http://www.domashniy-uyut.net/potolki/potolkiceni/

Дублирующая страница, которую надо запретить к индексации (появилась после установки флеш калькулятора) - http://www.domashniy-uyut.net/potolk...ki/potolkiceni

Вот не знаю как правильно поставить запрет - то ли весь адрес вписывать, то ли все что находится после флеш (?do=cat&category=potolki/potolkiceni
)

Если не трудно, покажите как это должно выглядеть - чтобы вставить в robots.txt

Заранее спасибо!!!!
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Marduh
Marduh
сообщение 10.6.2011, 16:30; Ответить: Marduh
Сообщение #2


nsg, вторая ссылка не открывается. А вообще читайте источник.:a25:
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
nsg
nsg
Topic Starter сообщение 10.6.2011, 17:35; Ответить: nsg
Сообщение #3


Не проходит ссылка! (

В общем к оригиналу прибавляется - ?do=cat&category=potolki/potolkiceni

Получается дублирующая страница, а мне надо чтобы только оригинал индексировался.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Kovtun
Kovtun
сообщение 10.6.2011, 17:51; Ответить: Kovtun
Сообщение #4


В файле robots.txt надо прописать:
Clean-param: do&category /potolki/potolkiceni/
Если я правильно понял. В любом случае, это не считается за дубликаты. Яша понимает, что это сессии, которые многие не закрывают. Если вам противно, когда пользователь открывает в выдаче страницу, где уже что-то отсортировано, тогда да, надо делать clean-param. При этом учтите, что робот должен знать адрес основной страницы, иначе директива работать не будет.

Вот, пожалуйста, все работает - http://www.domashniy-uyut.net/potolki/poto...lki/potolkiceni
На том форуме идет "обрезка" длинных URL, как и здесь. А вы просто копируете текст сообщения (а не его код) с другого форума и вставляете сюда. На том форуме вам очень помогли? :a1:
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
nsg
nsg
Topic Starter сообщение 10.6.2011, 18:13; Ответить: nsg
Сообщение #5


(' post='17785 @ 10.6.2011, 20:51)
При этом учтите, что робот должен знать адрес основной страницы, иначе директива работать не будет.


Это как понять? Можно подробнее и нагляднее?
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Kovtun
Kovtun
сообщение 10.6.2011, 18:14; Ответить: Kovtun
Сообщение #6


nsg, на нее должна быть доступна внутренняя ссылка с других страниц сайта. А еще лучше сделать карту сайта с нормальными ссылками, о которых робот должен знать.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
nsg
nsg
Topic Starter сообщение 10.6.2011, 18:16; Ответить: nsg
Сообщение #7


На том форуме мне посоветовали прописать - Disallow: /*?

Вы считаете это не правильно?

---------- Сообщение добавлено в 18:16 ---------- Предыдущее сообщение размещено в 18:14 ----------

У меня много внутренних ссылок где прописан адрес оригинала! И есть Sitemap где указан оригинал, а дубль оттуда удален мною.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Kovtun
Kovtun
сообщение 10.6.2011, 18:21; Ответить: Kovtun
Сообщение #8


(nsg @ 10.6.2011, 21:16) *
Вы считаете это не правильно?

nsg, да, считаю это не правильным.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
nsg
nsg
Topic Starter сообщение 10.6.2011, 18:25; Ответить: nsg
Сообщение #9


Ну так как все правильно прописать в robots.txt - можно наглядно на моем примере? А то не совсем понимаю все.

Буду очень благодарен!!! )
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Kovtun
Kovtun
сообщение 10.6.2011, 18:28; Ответить: Kovtun
Сообщение #10


Если кроме данной страницы ничего не интересует и все остальное оставить как есть, то вот как:
User-agent: *
Disallow: /*print
Disallow: /autobackup.php
Disallow: /admin.php
Disallow: /user/
Disallow: /index.php?do=register
Disallow: /index.php?do=lastcomments
Disallow: /index.php?do=stats
Disallow: /index.php?do=pm
Disallow: /index.php?do=stats
Disallow: /index.php?do=search
Disallow: /index.php?do=addnews
Disallow: /index.php?do=register
Disallow: /index.php?do=feedback
Disallow: /index.php?do=lostpassword
Disallow: /index.php?subaction=newposts
Clean-param: do&category /potolki/potolkiceni/
Host: www.domashniy-uyut.net

Sitemap: http://www.domashniy-uyut.net/sitemap.xml
Иначе надо разбираться уже более внимательно и конкретно. Т.к. чтобы грамотно составить роботс, надо досконально знать свой сайт.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
2 страниц V   1 2 >
Открыть тему
Тема закрыта
2 чел. читают эту тему (гостей: 2, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Нужно ли закрывать ненужные страницы тегом noindex, follow?
8 noviktamw 2914 2.3.2024, 12:53
автор: toplinks
Открытая тема (нет новых ответов) Сверстать страницы из figma
нужно сделать страницы для веб приложения
1 bluestorm 1297 7.6.2022, 18:11
автор: doharddocode
Открытая тема (нет новых ответов) Подобрать группы и страницы и разместить ссылку
4 Lacomka 3412 21.2.2022, 8:43
автор: АлексейWEB
Открытая тема (нет новых ответов) Верстка и внедрение на сайт макета главной страницы
Требуется: с Figma на Laravel
2 ARsHi 1672 27.3.2021, 0:57
автор: Ogaelath
Открытая тема (нет новых ответов) Кто возьмется за продвижение сайта со второй страницы на первую в Гугле
и за сколько?
9 Mukanov 2274 24.8.2020, 3:34
автор: adamsadriane


 



RSS Текстовая версия Сейчас: 23.4.2024, 22:02
Дизайн