Помощник
|
Файл robots.txt |
alexxx1980
|
Сообщение
#1
|
||
|
|
||
|
|||
Sickboy |
30.8.2011, 23:58;
Ответить: Sickboy
Сообщение
#2
|
|
У другой компании так: А какое вам дело до других компаний? У вас одинаковые сайты, чтобы роботс был одинаковым? У вас прописана директива для всех роботов одна и та же, у "других компаний" прописана отдельно для Яндека и отдельно для всех остальных. Если вы хотите узнать правильно ли у вас составлен файл роботс - покажите сайт, тут телепатов нет) ЗЫ. Снова нужно к Дэвиду Блэйну... -------------------- |
|
|
alexxx1980
|
Сообщение
#3
|
|
А какое вам дело до других компаний? У вас одинаковые сайты, чтобы роботс был одинаковым? У вас прописана директива для всех роботов одна и та же, у "других компаний" прописана отдельно для Яндека и отдельно для всех остальных. Если вы хотите узнать правильно ли у вас составлен файл роботс - покажите сайт, тут телепатов нет) ЗЫ. Снова нужно к Дэвиду Блэйну... Это я для примера другой роботс прописал... Смысл я в принципе понимаю, что одно для всех, другое отдельно для яндекса. Я не понисаю зачем так отдельно прописывать? |
|
|
Fallup |
31.8.2011, 0:05;
Ответить: Fallup
Сообщение
#4
|
|
Все у вас правильно.
-------------------- |
|
|
Brodyaga |
31.8.2011, 0:54;
Ответить: Brodyaga
Сообщение
#5
|
|
Я не понисаю зачем так отдельно прописывать? Потому что бывает что яндекс забивает на User-agent: * Disallow: /index/ при запрете каких то страниц Поэтому и пишут специально ему User-agent: Yandex Disallow: /index/ Но я лично с таким никогда не сталкивался и пишу постоянно условие для всех роботов, знакомы как то говорил что пришлось прописывать отдельно, чтобы он не индексировал то что запрещено все ботам |
|
|
serezka |
31.8.2011, 1:03;
Ответить: serezka
Сообщение
#6
|
|
alexxx1980
Яндекс любит когда для него повторно всё прописывают. Таким образом нужно делать грубоговоря 2 столбика - один для всех ПС, другой для яндекса. |
|
|
taxi2008 |
31.8.2011, 2:37;
Ответить: taxi2008
Сообщение
#7
|
|
|
ТС вам сюда
Прочтите внимательно по нескольку раз и все вопросы мигом отпадут!
-------------------- Своим рефералам предоставлю 3 месяца хостинга бесплатно! |
|
|
||
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Услуги по сбору новостей .txt для ваших сайтов, любые тематики + Отзывы Импорт в DLE, WP (Xml, SQL) с отложенной публикацией под заказ |
138 | Akira | 79047 | 12.8.2019, 21:28 автор: neonix |
|
Куплю места для размещения TXT+URL Строительная тематика. | 7 | regem | 7641 | 28.3.2019, 18:31 автор: regem |
|
Срочно требуется специалист по robots.txt Разовая работа |
1 | tankoff | 2204 | 8.3.2017, 1:56 автор: PavelMarty |
|
Куплю места для размещения TXT+URL Кафе, Ресторан, Банкетные тематики. | 0 | regem | 8346 | 1.3.2017, 3:20 автор: regem |
|
Вопрос про файл .htacess...(Bitrix) | 0 | Исо | 1610 | 6.8.2016, 10:34 автор: Исо |
Текстовая версия | Сейчас: 19.4.2024, 23:51 |