Liex и закон Ципфа
Неожиданно в голове сложилась цепочка из закона Ципфа, продвижения статьями и жалоб вебмастеров, что из-за liex у них сайты вылетают из индекса или пессимизируются. Говорить буду в основном про яндекс, хотя логические размышление можно проецировать.
Во времена Арзамаса синонимизированные тексты определяются поисковой машиной из-за рваной частотности слов документа. Следовательно, меры по маскированию liex на сайтах вроде размещения в уникальных подпапках — как мертвому припарка. Ведь подавляющее большинство статей в liex — полуавтоматическое размножение, страдающее от нетипичной лексики, размещение такого барахла почти поощряется. Сайты размещают сомнительный контент, получают закономерные санкции…Неожиданно в голове сложилась цепочка из закона Ципфа, продвижения статьями и жалоб вебмастеров, что из-за liex у них сайты вылетают из индекса или пессимизируются. Говорить буду в основном про яндекс, хотя логические размышление можно проецировать.
Во времена Арзамаса синонимизированные тексты определяются поисковой машиной из-за рваной частотности слов документа. Следовательно, меры по маскированию liex на сайтах вроде размещения в уникальных подпапках — как мертвому припарка. Ведь подавляющее большинство статей в liex — полуавтоматическое размножение, страдающее от нетипичной лексики, размещение такого барахла почти поощряется. Сайты размещают сомнительный контент, получают закономерные санкции.
Яндекс признает важность и полезность продажных ссылок для формирования коммерческого serp. Значит, как таковая продажа ссылок — не наказуема. Предположу такой критерий полезности: делай сайты для людей, вешай аккуратно ссылки на нормальных акцепторов — нет проблем, всем польза, ситуация win-win. А массивное создание бредоконтента с перегоном ссылочного сомнительным площадкам закономерно наказуемо. Если за сайтом есть и другие грехи, то автоматическое размещение liex может стать окончательной причиной для вылета из индекса.
В рекламе liex есть пункт, что продвижение статьями — будущее SEO и так далее. Нет, может за статьями и будущее, не возьмусь оспаривать. Но явно не за конвеером генерированного контента, выделить который не так и трудно в алгоритме SE. И потому с текущими тенденциями брать количеством, но не качеством статей не получится ни для выдачи, ни для пузомерок.
Тем не менее liex можно с пользой использовать — например, для того, чтобы забивать ненужные пустующие домены (ставится WP, попадает в индекс, далее liex добавляет статьи по xml-rpc и приносит какую-то мелочь), чтобы оживить старые статичные MFS-сайты (если статичный сайт давно висит в индексе и успешно торгует ссылками, обновление может пойти ему на пользу — некоторые оптимизаторы при покупке ссылок закономерно смотрят на дату обновления сайта) и, как минимум, пока что для наращивания параметров MFS. Кажется, что в тексте есть противоречие: то ли растут параметры, то ли нет, то ли есть ссылочное, то ли нет. На самом деле, это вопрос фильтров.
Мои наблюдения и логика подсказывают, что сейчас нужно как минимум стараться избегать размещения автоматически сгенерированных статей (ручное размножение хоть и страдает от похожих проблем, но в меньшей мере), а самому размещать копированнные статьи с продвигаемого сайта, имитируя естественное цитирование. Копипаст чувствует себя лучше искуственно созданных текстов. В остальном мои фильтры вполне типичны: для вебмастера — адекватное количество ссылок в статье, в т.ч. в пересчете на 1000 символов, и обширные списки стоп-слов; для рекламодателя — предпочтение ручному или xml-rpc размещению, индексирование яндексом от 20 страниц и от 50%, какие-нибудь бэклинки и так далее.
Добавить комментарий