Помощник
|
Robots для блога? |
artemiy
|
Сообщение
#1
|
||
|
|
||
|
|||
Reader |
12.3.2011, 10:07;
Ответить: Reader
Сообщение
#2
|
|
Имеется личный блог что прописать в robots.txt для улучшенной индексации. Т.е. убрать лишние страницы из индекса. Совсем недавно была аналогичная тема. И еще 10 аналогичных тем. Эх, ладно: User-agent: * Disallow: /cgi-bin # запрещаем индексацию системных папок Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-content/plugins Disallow: /wp-content/cache Disallow: /wp-content/themes # запрещаем индексацию страницы входа и регистрации Disallow: /wp-login.php Disallow: /wp-register.php # запрещаем индексацию трекбеков и rss-ленты Disallow: /trackback Disallow: /feed Disallow: /rss Disallow: */trackback Disallow: */feed Disallow: */rss Disallow: /xmlrpc.php # запрещаем индексацию архива автора Disallow: /author* # запрещаем индексацию постраничных комментариев Disallow: */comments Disallow: */comment-page* # запрещаем индексацию результатов поиска и других возможных лишних страниц Disallow: /*?* Disallow: /*? # разрешаем индексацию вложений Allow: /wp-content/uploads Host: сайт.ру Sitemap: http:// сайт.ру /sitemap.xml и снова оттуда же: файл robots для WordPress Сообщение отредактировал Reader - 12.3.2011, 10:07 -------------------- |
|
|
artemiy
|
Сообщение
#3
|
|
А это не повредит?
-------------------- |
|
|
Reader |
12.3.2011, 10:19;
Ответить: Reader
Сообщение
#4
|
|
-------------------- |
|
|
artemiy
|
Сообщение
#5
|
|
Вопрос уже отпал. Устанавливаю роботс на блог.
А что насчет DLE? -------------------- |
|
|
Plazik |
17.3.2011, 15:36;
Ответить: Plazik
Сообщение
#6
|
|
|
|
|
Rexat_dzen |
17.3.2011, 18:05;
Ответить: Rexat_dzen
Сообщение
#7
|
|
А гуглить не пробовали?
просто написать типа: robot.txt для dle |
|
|
kievrent |
18.3.2011, 3:46;
Ответить: kievrent
Сообщение
#8
|
|
|
что прописать в robots.txt для улучшенной индексации строки роботса не помогут улучшить индексацию. Я бы сделал сайтмэп и купил ссылок + социалок. Т.е. убрать лишние страницы из индекса. Выше приведен пример отличного роботса под ВП. По моему опыту Гугл сам убирает эти страницы из индекса (они одинаковые у всех ВП сайтов и Гугл не обижается, когда вебмастера забывают их закрыть). А в разрезе того, что Гугл умудряется игнорировать роботс (был не один пример), то смысл всех этих манипуляций сводится к нулю
Сообщение отредактировал kievrent - 18.3.2011, 3:47 -------------------- |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Какой % отказов нормален для сайта? | 12 | Aloof | 2876 | Сегодня, 17:05 автор: Liudmila |
|
✅ sms.chekons.com - ⭐ Сервис для получения SMS на реальные номера USA "Non-VoIP, безлим SMS, API" ⭐ Сервис для получения SMS на реальные номера USA |
13 | Chekon | 4079 | 18.4.2024, 11:48 автор: Chekon |
|
Rebex.io – Ваша инновационная платформа для обмена криптовалюты! | 1 | Rebex | 691 | 17.4.2024, 11:50 автор: Rebex |
|
Betatransfer.net - прием платежей для HIGH RISK проектов, интернет эквайринг и мерчант онлайн оплат | 54 | arendator | 34847 | 15.4.2024, 15:16 автор: arendator |
|
⭕Антидетект браузер AdsPower для эффективной работы с мультиаккаунтами! | 83 | AdsPower | 24426 | 14.4.2024, 22:52 автор: AdsPower |
Текстовая версия | Сейчас: 20.4.2024, 17:47 |