X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

> Про sitemap.xml
marshal
marshal
Topic Starter сообщение 27.7.2007, 0:24; Ответить: marshal
Сообщение #1


Для создания sitemap.xml пользуюсь программой Sitemap Writer Pro,
которая автоматически вносит в него все страницы сайта.
Нужно ли добавлять в sitemap.xml странички закрытые от индексации в robots.txt?
0
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
2 страниц V   1 2 >  
Открыть тему
Ответов (1 - 9)
Альберт
Альберт
сообщение 27.7.2007, 2:12; Ответить: Альберт
Сообщение #2


Хм. А теперь сам немного подумай что спросил.
Карта сайт для чего нужна? -правильно, для ботов. Ботам ты запредил определенные директории, спрашивается,- а зачем в карте сайта прописывать запрещенные директоии?..


--------------------
Консультирую по повышению тИЦ, SEO оптимизации сайта. +7 919-155-53-26
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
marshal
marshal
Topic Starter сообщение 27.7.2007, 21:54; Ответить: marshal
Сообщение #3


Именно так я и делал,но поскольку должного эффекта нет задумался почему,
а в качестве одной из причин посчитал свое редактирование sitemap.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
IPiar
IPiar
сообщение 10.8.2007, 12:28; Ответить: IPiar
Сообщение #4


Здравствуйте!
Посоветуйте хороший на Ваш взгляд сервис для создания сайтмапа он-лайн. И, возможно, их минусы и как их исправить.
Перепробывал много сервисов, но все выдают разное количество линков, что весьма странно.
Программы типа GSiteCrawler немерянно едят трафик, что создает отдельную проблему. Поэтому приходится от них отказываться.

Так же интересует мнение о ror.mxl и urllist.txt, соит ли их использовать (и чем, в таком случае, создавать)?

Спб!
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
skaboy
skaboy
сообщение 10.8.2007, 14:25; Ответить: skaboy
Сообщение #5


(IPiar @ 10.8.2007, 8:28) *
Здравствуйте!
Посоветуйте хороший на Ваш взгляд сервис для создания сайтмапа он-лайн. И, возможно, их минусы и как их исправить.
Перепробывал много сервисов, но все выдают разное количество линков, что весьма странно.
Программы типа GSiteCrawler немерянно едят трафик, что создает отдельную проблему. Поэтому приходится от них отказываться.

Так же интересует мнение о ror.mxl и urllist.txt, соит ли их использовать (и чем, в таком случае, создавать)?

Спб!

http://www.xml-sitemaps.com/
вот этот гуут

но луче конешно самому написать или создать автоматически скрипт которы сам создает такой файл !!!


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
IPiar
IPiar
сообщение 10.8.2007, 16:24; Ответить: IPiar
Сообщение #6


Благодарю за ответ, его как раз и использую в последнее время smile.gif

а можно насчёт скрипта попадробней?
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
skaboy
skaboy
сообщение 11.8.2007, 22:30; Ответить: skaboy
Сообщение #7


дай ссылку на свой сайт и расскажи про твой CMS а если у тебя нет CMS то пользуйся тем сайтом ↑


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
sctas
sctas
сообщение 3.9.2007, 9:07; Ответить: sctas
Сообщение #8


http://www.xml-sitemaps.com/ - Хорошии сервис.Жалко что у него ограничение на 500 страниц .А есть какойнибудь сервис или скрипт позволяющии создать карту для сайта у которого более 500 страниц.Движок DataLife Engine.


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
CZon
CZon
сообщение 3.9.2007, 12:47; Ответить: CZon
Сообщение #9


В шапке даннного сайта написано Free Online Google Sitemap generator.
ЗНачит ли это что это штуковина не подходит для Я и других? и зачем вообще нужны такие карты?
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Мак_Сим
Мак_Сим
сообщение 3.9.2007, 14:55; Ответить: Мак_Сим
Сообщение #10


XML Sitemaps

Google introduced Google Sitemaps so web developers can publish lists of links from across their sites. The basic premise is that some sites have a large number of dynamic pages that are only available through the use of forms and user entries. The sitemap files can then be used to indicate to a web crawler how such pages can be found.
Google, MSN, Yahoo and Ask now jointly support the Sitemaps protocol.

For example, think of a forum that is using dynamic pages. Google would only return less than 100 results without using a sitemap. Once a sitemap is provided, there are more than one millions pages in the result. Since MSN, Yahoo, Ask, and Google use the same protocol, having a sitemap lets the four biggest search engines have the updated page information.

http://en.wikipedia.org/wiki/Sitemap

Так понятнее?

Точнее вот: http://en.wikipedia.org/wiki/Sitemaps

Сообщение отредактировал Мак_Сим - 3.9.2007, 14:59
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
2 страниц V   1 2 >
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) Форум про уток - на новом домене
Форум про уток на новом домене - utkamir.ru
0 artmeteor 552 13.4.2024, 18:26
автор: artmeteor
Открытая тема (нет новых ответов) Нужен сайт с автонаполнением по XML
1 REGNET 1223 7.3.2024, 15:08
автор: REGNET
Открытая тема (нет новых ответов) "Извините, что ожидание затянулось, но не думайте, пожалуйста, что мы про вас забыли. Мы заводим задачи по всем обращениям и контролируем работу над ними самым тщательным образом."
Вопрос
0 kuz999 1243 5.2.2024, 14:06
автор: kuz999
Открытая тема (нет новых ответов) RTB/XML Партнерская сеть Trafficstore.pro
0 trafficstore2x2 1573 26.3.2021, 15:44
автор: trafficstore2x2
Открытая тема (нет новых ответов) RTB/XML Партнерская сеть Trafficstore.pro
0 trafficstore2x2 1016 23.3.2021, 18:53
автор: trafficstore2x2


 



RSS Текстовая версия Сейчас: 19.4.2024, 5:32
Дизайн