X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

3 страниц V   1 2 3 >
Открыть тему
Тема закрыта
> Liex и закон Ципфа: плюсы, минусы, подводные камни, минимизируем риски при работе с liex
arseny
arseny
Topic Starter сообщение 15.11.2009, 20:40; Ответить: arseny
Сообщение #1


Частый гость
**

Группа: User
Сообщений: 88
Регистрация: 6.10.2008
Поблагодарили: 87 раз
Репутация:   7  


Неожиданно в голове сложилась цепочка из закона Ципфа, продвижения статьями и жалоб вебмастеров, что из-за liex у них сайты вылетают из индекса или пессимизируются. Говорить буду в основном про яндекс, хотя логические размышление можно проецировать.

Во времена Арзамаса синонимизированные тексты определяются поисковой машиной из-за рваной частотности слов документа (для тех, кто не понимает, о чем я, рекомендую хороший, подробный текст от Ласто). Следовательно, меры по маскированию liex на сайтах вроде размещения в уникальных подпапках - как мертвому припарка. Ведь подавляющее большинство статей в liex - полуавтоматическое размножение, страдающее от нетипичной лексики, размещение такого барахла почти поощряется. Сайты размещают сомнительный контент, получают закономерные санкции.

Яндекс признает важность и полезность продажных ссылок для формирования коммерческого serp. Значит, как таковая продажа ссылок - не наказуема. Предположу такой критерий полезности: делай сайты для людей, вешай аккуратно ссылки на нормальных акцепторов - нет проблем, всем польза, ситуация win-win. А массивное создание бредоконтента с перегоном ссылочного сомнительным площадкам закономерно наказуемо. Если за сайтом есть и другие грехи, то автоматическое размещение liex может стать окончательной причиной для вылета из индекса.

В рекламе liex есть пункт, что продвижение статьями - будущее SEO и так далее. Нет, может за статьями и будущее, не возьмусь оспаривать. Но явно не за конвеером генерированного контента, выделить который не так и трудно в алгоритме SE. И потому с текущими тенденциями брать количеством, но не качеством статей не получится ни для выдачи, ни для пузомерок.

Тем не менее liex можно с пользой использовать - например, для того, чтобы забивать ненужные пустующие домены (ставится WP, попадает в индекс, далее liex добавляет статьи по xml-rpc и приносит какую-то мелочь), чтобы оживить старые статичные MFS-сайты (если статичный сайт давно висит в индексе и успешно торгует ссылками, обновление может пойти ему на пользу - некоторые оптимизаторы при покупке ссылок закономерно смотрят на дату обновления сайта) и, как минимум, пока что для наращивания параметров MFS. Кажется, что в тексте есть противоречие: то ли растут параметры, то ли нет, то ли есть ссылочное, то ли нет. На самом деле, это вопрос фильтров.

Мои наблюдения и логика подсказывают, что сейчас нужно как минимум стараться избегать размещения автоматически сгенерированных статей (ручное размножение хоть и страдает от похожих проблем, но в меньшей мере), а самому размещать копированнные статьи с продвигаемого сайта, имитируя естественное цитирование. Копипаст чувствует себя лучше искуственно созданных текстов. В остальном мои фильтры вполне типичны: для вебмастера - адекватное количество ссылок в статье, в т.ч. в пересчете на 1000 символов, и обширные списки стоп-слов; для рекламодателя - предпочтение ручному или xml-rpc размещению, индексирование яндексом от 20 страниц и от 50%, какие-нибудь бэклинки и так далее.

Приветик спонсорам:
Покупайте ссылки, а не арендуйте – мега-опция для естественного продвижения!
Почему много денег? Потому что Главмед! Лей трафик и живи без бед!
37
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Monah
Monah
сообщение 15.11.2009, 21:18; Ответить: Monah
Сообщение #2


Тёмный seo мастер
******

Группа: Active User
Сообщений: 2385
Регистрация: 27.4.2009
Из: Лаборатории Монаха
Поблагодарили: 1301 раз
Репутация:   196  


Спасибо за статью, хотя честно говоря я это уже давно знаю, так же как и подавляющее большинство пользователей этого форума, которые работают с Liex. Ставлю плюс теме.

(arseny @ 15.11.2009, 22:40) *
для вебмастера - адекватное количество ссылок в статье, в т.ч. в пересчете на 1000 символов

Сколько ссылок по вашему адекватно?


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
dever
dever
сообщение 15.11.2009, 21:21; Ответить: dever
Сообщение #3


Участник
***

Группа: User
Сообщений: 224
Регистрация: 11.12.2008
Поблагодарили: 48 раз
Репутация:   9  


Давно заметил что закон Ципфа начал применяться яндексом. На 100% сказать не могу, но скорее всего это так. Ведь на то он и закон что не имеет исключений (распространен на все основные языки мира). Поэтому проведя элементарный анализ (даже машинный) можно понять человек это писал или автомат синонимизировал.


--------------------
Тизерная реклама от 10 коп. за клик здесь

Тизеры по 2,5р за клик здесь
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
arseny
arseny
Topic Starter сообщение 15.11.2009, 21:36; Ответить: arseny
Сообщение #4


Частый гость
**

Группа: User
Сообщений: 88
Регистрация: 6.10.2008
Поблагодарили: 87 раз
Репутация:   7  


(Monah @ 15.11.2009, 19:18) *
Сколько ссылок по вашему адекватно?


Мой критерий - до 4 ссылок на в статье, от 700 символов на ссылку.
Т.е. например, статья с 2 ссылками - 1500 символов.

Большое количество ссылок в статье неудобно еще и из-за того, что сайты, имеющие одинаковые или сильно похожие бэки, находятся в зоне риска, как мне кажется.


Поблагодарили: (2)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
k0yz
k0yz
сообщение 15.11.2009, 21:48; Ответить: k0yz
Сообщение #5


Участник
***


Группа: User
Сообщений: 217
Регистрация: 26.9.2009
Поблагодарили: 27 раз
Репутация:   1  


если раньше еще были сомнения по поводу работы закона Ципфа в яндексе, то теперь он улетучились..

ТС, спасибо за статью..
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kesn
kesn
сообщение 20.11.2009, 17:38; Ответить: kesn
Сообщение #6


Топовый постер
*******


Группа: Active User
Сообщений: 5100
Регистрация: 20.9.2008
Из: опринозин
Поблагодарили: 1989 раз
Репутация:   483  


Спасибо за статью, почерпнул много интересного для себя!
Теме +2


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
alvarvas
alvarvas
сообщение 20.11.2009, 23:00; Ответить: alvarvas
Сообщение #7


Частый гость
**

Группа: User
Сообщений: 66
Регистрация: 5.10.2009
Поблагодарили: 5 раз
Репутация:   2  


arseny, отличная статья, кое что прояснила ++
(arseny @ 15.11.2009, 19:40) *
жалоб вебмастеров, что из-за liex у них сайты вылетают из индекса или пессимизируются

есть такая проблема.
а вот это можно поподробнее, почему в зоне риска?
(arseny @ 15.11.2009, 20:36) *
сайты, имеющие одинаковые или сильно похожие бэки, находятся в зоне риска, как мне кажется


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
arseny
arseny
Topic Starter сообщение 25.11.2009, 5:19; Ответить: arseny
Сообщение #8


Частый гость
**

Группа: User
Сообщений: 88
Регистрация: 6.10.2008
Поблагодарили: 87 раз
Репутация:   7  


(alvarvas @ 20.11.2009, 21:00) *
arseny, отличная статья, кое что прояснила ++

есть такая проблема.
а вот это можно поподробнее, почему в зоне риска?

В Google есть фильтр на продвижение сеткой сайтов. Когда у нескольких сайтов одинаковые (сильно похожие бэки), все они проваливаются в выдаче на несколько десятков позиций. Проверял.

Не могу с уверенностью утверждать, есть ли такой алгоритм у Яндекса, а если есть, на какие параметры влияет (выдача, тиц, статический вес?). Но его существование было бы логично и объясняло бы, например, почему прогон сайтов по паблик базам с получением большого кол-ва бэков не дает существенного роста, а приватные базы нередко дают хороший эффект.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Motorocker
Motorocker
сообщение 28.11.2009, 17:22; Ответить: Motorocker
Сообщение #9


Участник
***

Группа: User
Сообщений: 196
Регистрация: 14.5.2009
Из: Пермь
Поблагодарили: 50 раз
Репутация:   9  


(arseny @ 15.11.2009, 19:40) *
Во времена Арзамаса синонимизированные тексты определяются поисковой машиной из-за рваной частотности слов документа.

А зачем использовать устаревшие слова? Делайте нормальный рерайт, затем размножьте его. Необязательно ведь продвигать машинно синонимизированными статьями.


--------------------
Total Commander, Word
АвтоФормат текстов, АпИнфо
ПармаСруб - срубы из Перми, строительство домов и бань
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Zonk
Zonk
сообщение 30.11.2009, 9:30; Ответить: Zonk
Сообщение #10


Новичок
*

Группа: User
Сообщений: 43
Регистрация: 15.11.2008
Поблагодарили: 16 раз
Репутация:   4  


Вот именно, закон Ципфа относится к синонимизированному уникализированному контенту, таких статей в Лиексе практически нет, включать галочку "принимать уникализированные статьи" мы не рекомендуем и ей практически никто не пользуется. А ручное размножение статей хорошо работает и это подтверждает статистика, т.к. более 60% всех статей в системе находятся в индексе Яндекса.

Сообщение отредактировал Zonk - 30.11.2009, 10:44
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
3 страниц V   1 2 3 >
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Открытая тема (нет новых ответов) На еще не принятый закон об автономном рунете уже выделили 1,8 млрд рублей
28 jack 1735 12.2.2019, 21:22
автор: LigaGiga
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыЯндекс и Mail.ru поддержали закон об автономности рунета
35 jack 2937 21.1.2019, 19:31
автор: Latinos
Открытая тема (нет новых ответов) один сайт. Новости/право/закон
тиц 2300, як, дмоз, 40 000 уников в сутки
2 moontower 1282 14.9.2013, 23:32
автор: romigh2007


 



RSS Текстовая версия Сейчас: 21.3.2019, 10:04
Дизайн