Помощник
Robots для блога? |
artemiy
|
Сообщение
#1
|
||
|
|
||
|
|||
Reader |
12.3.2011, 10:07;
Ответить: Reader
Сообщение
#2
|
|
Имеется личный блог что прописать в robots.txt для улучшенной индексации. Т.е. убрать лишние страницы из индекса. Совсем недавно была аналогичная тема. И еще 10 аналогичных тем. Эх, ладно: User-agent: * Disallow: /cgi-bin # запрещаем индексацию системных папок Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes # запрещаем индексацию страницы входа и регистрации Disallow: /wp-login.php Disallow: /wp-register.php # запрещаем индексацию трекбеков и rss-ленты Disallow: /trackback Disallow: /feed Disallow: /rss Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: /xmlrpc.php # запрещаем индексацию архива автора Disallow: /author* # запрещаем индексацию постраничных комментариев Disallow: */comments Disallow: */comment-page* # запрещаем индексацию результатов поиска и других возможных лишних страниц Disallow: /*?* Disallow: /*? # разрешаем индексацию вложений Allow: /wp-content/uploads Host: сайт.ру Sitemap: http:// сайт.ру /sitemap.xml и снова оттуда же: файл robots для WordPress Сообщение отредактировал Reader - 12.3.2011, 10:07 -------------------- |
|
|
artemiy
|
Сообщение
#3
|
|
А это не повредит?
-------------------- |
|
|
Reader |
12.3.2011, 10:19;
Ответить: Reader
Сообщение
#4
|
|
-------------------- |
|
|
artemiy
|
Сообщение
#5
|
|
Вопрос уже отпал. Устанавливаю роботс на блог.
А что насчет DLE? -------------------- |
|
|
Plazik |
17.3.2011, 15:36;
Ответить: Plazik
Сообщение
#6
|
|
|
|
|
Rexat_dzen |
17.3.2011, 18:05;
Ответить: Rexat_dzen
Сообщение
#7
|
|
А гуглить не пробовали?
просто написать типа: robot.txt для dle |
|
|
kievrent |
18.3.2011, 3:46;
Ответить: kievrent
Сообщение
#8
|
|
|
что прописать в robots.txt для улучшенной индексации строки роботса не помогут улучшить индексацию. Я бы сделал сайтмэп и купил ссылок + социалок. Т.е. убрать лишние страницы из индекса. Выше приведен пример отличного роботса под ВП. По моему опыту Гугл сам убирает эти страницы из индекса (они одинаковые у всех ВП сайтов и Гугл не обижается, когда вебмастера забывают их закрыть). А в разрезе того, что Гугл умудряется игнорировать роботс (был не один пример), то смысл всех этих манипуляций сводится к нулю
Сообщение отредактировал kievrent - 18.3.2011, 3:47 -------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Посоветуйте массажер для спины и шеи | 9 | Boymaster | 859 | Сегодня, 13:56 автор: Vmir |
|
Какой % отказов нормален для сайта? | 14 | Aloof | 3333 | Сегодня, 13:50 автор: Vmir |
|
Люблю творить! Статьи для вас Копирайтинг- моя жизнь! |
312 | Zoya83 | 190637 | Сегодня, 7:51 автор: DimonX |
|
Современный сервис для быстрого и безопасного обмена валют. | 15 | CryptoTims | 4942 | Вчера, 22:32 автор: CryptoTims |
|
Rebex.io – Ваша инновационная платформа для обмена криптовалюты! | 2 | Rebex | 817 | Вчера, 20:04 автор: Rebex |
Текстовая версия | Сейчас: 23.4.2024, 14:18 |