X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> Идеальный robots.txt или история о маленьком, но очень важном файле
sidash
sidash
Topic Starter сообщение 13.5.2011, 1:44; Ответить: sidash
Сообщение #1


Бывалый
****

Группа: User
Сообщений: 252
Регистрация: 22.12.2010
Поблагодарили: 102 раза
Репутация:   16  


Привет всем! Сегодня я расскажу вам об одном небольшом файле, который играет огромную роль в продвижении вашего блога. Как вы уже наверное догадались, речь пойдёт о robots.txt. Хоть нигде и не сказано, что его обязательно нужно использовать на сайтах, но я все же советую вам сейчас же (если вы не сделали этого раньше) открыть FTP-клиент и установить robots.txt – это займет не больше двух минут.

Вначале я расскажу о том, для чего он вообще нужен
http://sidash.ru/idealnyy-robots-txt/


--------------------


Поблагодарили: (1)
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Belos
Belos
сообщение 13.5.2011, 2:02; Ответить: Belos
Сообщение #2


Старожил
******

Группа: Active User
Сообщений: 2478
Регистрация: 11.11.2008
Из: Украина
Поблагодарили: 702 раза
Репутация:   96  


1) Поговаривают, что Яндекс негативно относится к подобному вида дублирования. Не знаю так это или нет так, но лучше на всякий случай перестраховаться, ведь потом вылезти из неприятной ситуации будет ой как сложно (пример подобной неприятности можете прочитать тут).

2) Поскольку мы стремимся, чтобы в топ попала нужная нам страница с постом, лишние дубли страниц нам будут только мешать в этом (мой друг Вадим делал когда-то эксперимент с дублями, результаты на этой странице).


1. Как вы сами написали -ВЫ не знаете..., так зачем что-то советовать?!!!
2. Закрыть дубли можно и через noindex....
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Silverspam
Silverspam
сообщение 13.5.2011, 6:47; Ответить: Silverspam
Сообщение #3


Злобный SEO Злодей
*******

Группа: Super Moderator
Сообщений: 7627
Регистрация: 14.11.2009
Из: C Урала
Поблагодарили: 8198 раз
Репутация:   501  


(Belos @ 13.5.2011, 4:02) *
2. Закрыть дубли можно и через noindex....


Ага, особенно если они получаются динамически в кривых движках... Каждую страничку закрывать будете?
В роботсе это быстрее, проще, и спасет от новых дублей, если все правильней прописать.

А насчет статьи ТС - для ВП может и сойдет как мини мануальчик для новичков. А как быть с остальными движками? )))
Заголовок не совсем соответствует содержанию...
Но за старания все же спасибо!

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) Что лучше, фриланс, удаленка, или работа в офисе солидной компании?
129 Levizar 14374 Сегодня, 8:56
автор: wanessa
Горячая тема (нет новых ответов) Копипаст или синонимы?
35 pe0ple 4834 19.5.2018, 16:55
автор: alxpn
Открытая тема (нет новых ответов) SESS обязательно, или можно обойтись?
3 Telnor 420 18.5.2018, 1:09
автор: bum
Горячая тема (нет новых ответов) Атака клонов! Или как бороться с мультиаккаунтами.
47 Pelican_Program 10566 17.5.2018, 19:24
автор: Pelican_Program
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыЧто ты выбираешь: сигареты или квартиру?
182 Zoya83 8933 13.5.2018, 1:19
автор: Flegs


 



RSS Текстовая версия Сейчас: 21.5.2018, 17:14
Дизайн