X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> robots.txt - как принудительно индексировать нужные страницы в закрытой директории ?
regem
regem
Topic Starter сообщение 1.7.2015, 15:54; Ответить: regem
Сообщение #1


Бывалый
****

Группа: User
Сообщений: 431
Регистрация: 22.11.2013
Поблагодарили: 43 раза
Репутация:   15  


Здравствуйте, наполняю сайт - каталог - магазин товаром, уже около 300 страниц, 90% это страницы с товаром.

Из 300 стр. оптимизировано примерно 50.

Сейчас я скрыл все неоптимизированные страницы в robots.txt, путем закрытия директорий, но по мере оптимизации страниц их надо открывать для индекса, а они все в 1-м месте.

Вопрос, как правильно прописывать исключение в robots.txt чтоб из закрытой директории, можно было разрешено индексировать указанные страницы ?

к примеру:

User-Agent: *
Disallow: /tovar1
Disallow: /tovar2

как мне указать (прописать) что в этих папках есть страницы которые можно индексировать ?

к примеру есть:
www.site.ru/tovar1/9-kartochka-tovara-1
www.site.ru/tovar1/19-kartochka-tovara-2
www.site.ru/tovar2/29-kartochka-tovara-3
www.site.ru/tovar2/39-kartochka-tovara-4

Вот как мне можно прописать эти страницы исключения, чтоб не открывать всю директорию ? так как там еще много не оптимизированных страниц !

Спасибо буду очень ждать ответа !
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Ruselic
Ruselic
сообщение 1.7.2015, 17:00; Ответить: Ruselic
Сообщение #2


Новичок
*

Группа: User
Сообщений: 23
Регистрация: 20.5.2015
Поблагодарили: 4 раза
Репутация:   0  


regem,

Allow: /tovar1/9-kartochka-tovara-1
Allow: /tovar1/19-kartochka-tovara-2
Allow: /tovar2/29-kartochka-tovara-3
Allow: /tovar2/39-kartochka-tovara-4
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Ortero
Ortero
сообщение 1.7.2015, 19:55; Ответить: Ortero
Сообщение #3


\m/_ _\m/
******

Группа: Active User
Сообщений: 1890
Регистрация: 23.2.2012
Поблагодарили: 837 раз
Репутация:   99  


Запрет можно и в мета-тегах прописать.


--------------------
Бегет - просто хороший хостинг, который еще и ssl-сертификат бесплатно дает.


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
regem
regem
Topic Starter сообщение 1.7.2015, 21:11; Ответить: regem
Сообщение #4


Бывалый
****

Группа: User
Сообщений: 431
Регистрация: 22.11.2013
Поблагодарили: 43 раза
Репутация:   15  


Ortero, Что-то я про мета-тег и не подумал, это думаю оптимальное решение, нежели +200 строк в роботс.тхт пихать. Спасибо за идею.


PS" Тему можно закрывать, решение найдено."
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Редирект только главной страницы
301 редирект
0 Gera 380 Сегодня, 7:00
автор: Gera
Открытая тема (нет новых ответов) Маленький кейс как сделать много почтовых ящиков в Gmail
Один аккаунт = много ящиков
0 PostBrigada 344 Сегодня, 0:32
автор: PostBrigada
Открытая тема (нет новых ответов) Как мошенники зарабатывают на прямых трансляциях в Instagram
Не ждите порно в инстаграм, его нет
8 PostBrigada 939 Сегодня, 0:14
автор: PostBrigada
Открытая тема (нет новых ответов) Видеомаркетинг как инструмент развития интернет-магазина
11 PostBrigada 2148 Вчера, 20:30
автор: galikfor
Открытая тема (нет новых ответов) Facebook палит прокси. Кто как решает эту проблему?
28 Twickbot 3617 Вчера, 20:26
автор: galikfor


 



RSS Текстовая версия Сейчас: 15.12.2017, 8:21
Дизайн