Помощник
|
Robots для блога? |
artemiy
|
Сообщение
#1
|
||
|
|
||
|
|||
Reader |
12.3.2011, 10:07;
Ответить: Reader
Сообщение
#2
|
|
Имеется личный блог что прописать в robots.txt для улучшенной индексации. Т.е. убрать лишние страницы из индекса. Совсем недавно была аналогичная тема. И еще 10 аналогичных тем. Эх, ладно: User-agent: * Disallow: /cgi-bin # запрещаем индексацию системных папок Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes # запрещаем индексацию страницы входа и регистрации Disallow: /wp-login.php Disallow: /wp-register.php # запрещаем индексацию трекбеков и rss-ленты Disallow: /trackback Disallow: /feed Disallow: /rss Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: /xmlrpc.php # запрещаем индексацию архива автора Disallow: /author* # запрещаем индексацию постраничных комментариев Disallow: */comments Disallow: */comment-page* # запрещаем индексацию результатов поиска и других возможных лишних страниц Disallow: /*?* Disallow: /*? # разрешаем индексацию вложений Allow: /wp-content/uploads Host: сайт.ру Sitemap: http:// сайт.ру /sitemap.xml и снова оттуда же: файл robots для WordPress Сообщение отредактировал Reader - 12.3.2011, 10:07 -------------------- |
|
|
artemiy
|
Сообщение
#3
|
|
А это не повредит?
-------------------- |
|
|
Reader |
12.3.2011, 10:19;
Ответить: Reader
Сообщение
#4
|
|
-------------------- |
|
|
artemiy
|
Сообщение
#5
|
|
Вопрос уже отпал. Устанавливаю роботс на блог.
А что насчет DLE? -------------------- |
|
|
Plazik |
17.3.2011, 15:36;
Ответить: Plazik
Сообщение
#6
|
|
|
|
|
Rexat_dzen |
17.3.2011, 18:05;
Ответить: Rexat_dzen
Сообщение
#7
|
|
А гуглить не пробовали?
просто написать типа: robot.txt для dle |
|
|
kievrent |
18.3.2011, 3:46;
Ответить: kievrent
Сообщение
#8
|
|
|
что прописать в robots.txt для улучшенной индексации строки роботса не помогут улучшить индексацию. Я бы сделал сайтмэп и купил ссылок + социалок. Т.е. убрать лишние страницы из индекса. Выше приведен пример отличного роботса под ВП. По моему опыту Гугл сам убирает эти страницы из индекса (они одинаковые у всех ВП сайтов и Гугл не обижается, когда вебмастера забывают их закрыть). А в разрезе того, что Гугл умудряется игнорировать роботс (был не один пример), то смысл всех этих манипуляций сводится к нулю
Сообщение отредактировал kievrent - 18.3.2011, 3:47 -------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Betatransfer.net - прием платежей для HIGH RISK проектов, интернет эквайринг и мерчант онлайн оплат | 55 | arendator | 35094 | Сегодня, 2:12 автор: arendator |
|
Rebex.io – Ваша инновационная платформа для обмена криптовалюты! | 3 | Rebex | 971 | Вчера, 20:50 автор: Rebex |
|
Посоветуйте массажер для спины и шеи | 10 | Boymaster | 906 | Вчера, 18:02 автор: Boymaster |
|
Обучение Email Рассылкам + Софт Для Автоматизации (100к в сутки с сервера) | 10 | zennoboss | 4664 | Вчера, 5:20 автор: Skyworker |
|
Какой % отказов нормален для сайта? | 14 | Aloof | 3384 | 23.4.2024, 13:50 автор: Vmir |
Текстовая версия | Сейчас: 25.4.2024, 15:40 |