X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

6 страниц V  < 1 2 3 4 5 6 >
Открыть тему
Тема закрыта
> Все о файле robots.txt по-русски
kyc0k
kyc0k
Topic Starter сообщение 11.3.2011, 13:10; Ответить: kyc0k
Сообщение #22


Это интересно чем же плохо его трогать???
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
M_a_Ge
M_a_Ge
сообщение 11.3.2011, 13:57; Ответить: M_a_Ge
Сообщение #23


(Tony_Stark_sf @ 11.3.2011, 14:58) *
Сколько можно закрывать все в роботсе? :a12: Не надо в нем ничего лишнего закрывать. Пользуйтесь метатегами для кжадой страницы. Их для того и придумали, что бы роботс не трогать.

Метатеги это конечно удобно. Но зачем поисковой системе скачивать страницу, которая не должна появиться в индексе? Подумайте над этим.
У меня другой подход, я стараюсь закрыть все ненужное именно в robots.txt. А все что невозможно или проблематично закрыть, закрываю в метатегах. Но их массовое использование считаю непримелимым (ИМХО)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kyc0k
kyc0k
Topic Starter сообщение 11.3.2011, 16:47; Ответить: kyc0k
Сообщение #24


Мне куда удобней robots.txt ... Обламывает одно что теперь HOST толком не пашет :a12:
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Tony_Stark_sf
Tony_Stark_sf
сообщение 11.3.2011, 17:39; Ответить: Tony_Stark_sf
Сообщение #25


M_a_Ge,
За нас уже давно подумал Гугл. Мы сейчас просто противимся и черное называем белым. Я уже несколько раз писал на этом форуме чем плох роботс.

Плох он тем, что если страница закрыта в роботсе (допустим, сортировка товара, поиск или еще что-то не спамное), то все ссылки, которые будут на нее вести, не передаду сайту никакого веса. Если же на такой странице указан noindex, follow, страница в индекс не пойдет, но все ссылки учтутся. Это хорошо и для внутренней перелинковке и для сбережения веса. Представьте себе сообщающиеся сосуды. Так вот Disallow в роботсе какой-то страницы = тому, что вы пробьете один из сосудов и вся вода, что в него втекает, выливается.

Другой вопрос, что дублей страниц не должно быть вообще, но бывает так, что от них нельзя избавиться. Для дублей, кстати, сделан метатег каноникал.

Не нужно пользоваться тем, от чего Гугл уже избавил нас больше года назад. А мы все лбом об стенку - вот я в роботсе все позакрываю и будет мне счастье.

Это олдскул, причем он уже не помогает, а только портит картину.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kyc0k
kyc0k
Topic Starter сообщение 12.3.2011, 3:19; Ответить: kyc0k
Сообщение #26


Tony_Stark,
Если ты не в курсе, вот что тебе расскажу... (Хоть и сижу изрядно нагулявшийся и подвыпивший, голова все же соображает).
Изначально когда робот ПС заходит на твой(либо какой другой) сайт, он ищет инструкцию что ему можно смотреть, а что нет. Инструкция эта называется файл robots.txt.
Так вот если какая либо страница или же директория сайта там закрыта. Он нафиг не пойдет туда и не будет ее индексировать.
Следовательно "вес" страницы не теряется.
Как говорится "Учи мат. часть"... )))
PS не сочти за грубость...
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Tony_Stark_sf
Tony_Stark_sf
сообщение 12.3.2011, 4:01; Ответить: Tony_Stark_sf
Сообщение #27


Нет, эту страну не победить...
Все понимаю, приятно отправить человека учить матчасть, но в даном случае я ее знаю лучше. И я могу доказать твое заблуждение.

Поехали.

Заходим в роботс данного форума, находим там запрет на индексацию пользователей (member.php)

Идем в гугл и пишем: inurl:member.php site:seo-forum.ru

О, Боже мой, что же это такое?

Результатов: примерно 215

Больше 200 страниц "соплей" закрытых в роботсе.

Дальше.
inurl:memberlist.php site:seo-forum.ru

Блин, а список пользователей что тут делает??

Еще дальше.
site:www.yandex.ru inurl:/setup

Кхм-кхм... что-то тут не так. Гугл проиндексировал даже то, что у Яндекса закрыто в роботсе. Мир переворачивается с ног на голову.

Антоша, роботы ХОДЯТ даже по тем страницам, которые закрыты в роботсе и успешно заносят из в индекс. И забрасывают их в сопли, оставляют без кэша. А если на страницу еще и внешние ссылки стоят, то вообще хана.

Роботс.тхт был придуман в 94м году. Уже прошло почти 20 лет! Мир ушел вперед, ребята. Надо больше читать того, о чем говорят и пишут люди в мире, нужно читать справку Гугла, нужно читать статьи на каких-то авторитетных источниках.

Я тут уже сто раз писал на форуме об этом, но многие до сих пор не хотят ничего слышать и видят только то, к чему привыкли. Но, к сожалению, поисковики не работают так, как хочется нам. Нельзя сказать себе, что Гугл делает так, как написано в роботсе и ждать, что он будет делать именно так.

Если сейчас ты поставишь ссылку со своего сайта на свой профиль на этом форуме, то ты не принесешь ровным счетом никакой пользы сайту, т.к. вес эта непонятная страница, находящаяся в соплях, никуда не передаст.

Если на страницу профилей поставить
<meta name="robots" content="noindex, follow">

то страница не будет попадать в индекс, но ссылки на ней индексироваться будут.
И вес пойдет дальше.

Да, сложно признать, что ты не прав, но будь мужиком, признай этот факт.
Вот просмотри обязательно на досуге:
http://www.seomoz.org/blog/serious-robotst...mpact-solutions
Если что-то будет непонятно, то можешь смело обращаться, я помогу с переводом непонятных мест.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
M_a_Ge
M_a_Ge
сообщение 12.3.2011, 10:55; Ответить: M_a_Ge
Сообщение #28


Tony_Stark, во-первых, файл robots.txt мог быть создан гораздо позднее того, как поисковик побывал на сайте. Страницы из индекса не так-то быстро выпадают.
Во-вторых, одно дело с Google работать, а совсем другое с Яндексом. Они по-разному, могут эти самые теги воспринимать.
Каждый из нас прав по-своему. Где-то нужно использовать файл robots.txt (от него никто еще не отказался и его использование необходимо), а где-то нужно использовать метатеги. И не только для SEO, а, например, для указания авторства и т.д.
Из своего опыта могу сказать, что я всегда использую метатег Despription для формирования хорошего сниппета, но Яндекс на него плевал. Вот такие дела.
Как говорится Рунет отстает от зарубежного Интернета на 2 года, не стоит этому удивляться. Конечно нужно прогрессировать, а не уподобляться течению толпы. Но иногда обстоятельства бывают выше нас.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
slavs™
slavs™
сообщение 12.3.2011, 13:11; Ответить: slavs™
Сообщение #29


M_a_Ge, о чем-то спорить с "гуру" Tony_Stark бесполезно. Существуют две точки зрения по всем вопросам. Его и неправильные.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Tony_Stark_sf
Tony_Stark_sf
сообщение 12.3.2011, 14:49; Ответить: Tony_Stark_sf
Сообщение #30


(M_a_Ge @ 12.3.2011, 12:55) *
во-первых, файл robots.txt мог быть создан гораздо позднее того, как поисковик побывал на сайте. Страницы из индекса не так-то быстро выпадают.

Роботс Яндекса точно создан давно. У них, кстати, разные роботсы на версии с www и без www. У Яндекса самого много косяков о которых написано в их хелпе, что нжно исправлять.

А ноиндекс, фоллов Яндекс понимает на ура. Каноникал, вроде, пока не видел, что бы понимал, а с ноиндекс, фоллов приходится работать, т.к. они вышли на Запад, а там без принятия этих правил Я не сможет работать.

Страницы с noindex, follow выпадают из индекса довольно быстро, кстати. Я двигаю 3 российских Сландо и с Яндексом волей-неволей пересекаюсь все равно. Ну и по украинским проектам с Яндексом приходится дело иметь. Поэтому, могу с уверенностью говорить, что это все работает и в Яндексе.

Вот, кстати и слова самого Яндекса:
http://api.yandex.ru/server/doc/concepts/y-ds-web-pages.xml
На странице Ctrl+F и ищем "Не индексировать страницу, но собрать с нее все ссылки на другие страницы"

В общем, я согласен, что рунет отстает очень. Как никак, это всего лишь около 2% всей сети. Поэтому, необходимо смотреть на то, что происходит в мире. И Яндекс это делает, кстати. И все его правила описаны в хелпе. Достаточно зайти в сам Яндекс и написать - noindex, follow site:yandex.ru

Насчет Славса промолчу. Такое ощущение, что человеку лень думать и неохота смотреть фактам в глаза :a12:
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kyc0k
kyc0k
Topic Starter сообщение 12.3.2011, 15:42; Ответить: kyc0k
Сообщение #31


(Tony_Stark_sf @ 12.3.2011, 16:49) *
Вот, кстати и слова самого Яндекса: http://api.yandex.ru/server/doc/conc...-web-pages.xml На странице Ctrl+F и ищем "Не индексировать страницу, но собрать с нее все ссылки на другие страницы"

Бррр... стоп...!!!
Допустим ты прав.
Но ты даешь ссылку на инструкцию API Яндекс.Сервера.
Яндекс.Сервер — это инструмент для организации полнотекстового поиска с учетом морфологии русского языка на сайте или в корпоративной сети.
С помощью Яндекс.Сервера можно

*

Организовать полнотекстовый поиск по сайту и в корпоративной сети.
*

Находить информацию, расположенную на веб-страницах, в файлах и базах данных.
*

Искать по файлам различных форматов: html, pdf, txt, MS Office, Open Office и др.
*

Индивидуально настраивать возможности расширенного поиска.

Яндекс.Сервер позволяет создать

*

Поиск по сайту или нескольким сайтам.
*

Поиск по корпоративному или внутрикорпоративному порталу.
*

Поиск по архивным и библиотечным массивам данных.

Где используется Яндекс.Сервер

Яндекс.Сервер используется на следующих сервисах Яндекса:

* Поиск по блогам
* Яндекс.Маркет
* Яндекс.Карты

Зачем нам Яндекс поиск... если мы говорим об индексации сайта.
Если PR не пашет, то о каком весе мы говорим? что мы передаем?
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
6 страниц V  < 1 2 3 4 5 6 >
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) QIWI кажется все?
110 Silverspam 17755 20.4.2024, 16:44
автор: Liudmila
Открытая тема (нет новых ответов) Мегамаркет. Скидка 1000 рублей при покупке от 5000 рублей на все, на первый заказ.
Мегамаркет. Скидка 1000 рублей при покупке от 5000 рублей на все, на п
7 stu999 1756 31.3.2024, 11:19
автор: stu999
Открытая тема (нет новых ответов) Все легальные аккаунты без НДС. Facebook Ads, Яндекс Директ и Google Ads без НДС. Отзывы SaveBalance
123
5 DerianFox 3789 7.7.2023, 19:07
автор: rom36
Открытая тема (нет новых ответов) RedBox - все нужные инструменты в одном месте
0 fantomofdarkness 799 15.2.2023, 14:50
автор: fantomofdarkness
Открытая тема (нет новых ответов) Внимание! Накрутка просмотров ВК на все посты стены. ДЕШЕВО!
0 robot_yaga2 934 4.7.2022, 15:17
автор: robot_yaga2


 



RSS Текстовая версия Сейчас: 24.4.2024, 3:28
Дизайн