Секреты поисковиков и алгоритмов были раскрыты на Ашмановской 2009
Ашмановская конференция, подводящая итог деятельности в сети за прошлый год, позволила многим из профессионалов seo-рынка узнать меры борьбы с сайтами-аффилиатами, принимающиеся тем же Яндексом и Google.
Аффилирование или монополизация нескольких позиций в поисковой выдаче одной и той же компанией по одному и тому же запросу с точки зрения поисковиков являются серьезнейшими нарушениями. Таким образом, одна и та же компания, создавая несколько сайтов-аффилиатов, внешне похожих друг на друга и оптимизированных под одни и те же запросы, старается занять сразу несколько позиций в топе. А делается все это для того, чтобы в несколько раз увеличить вероятность клика и привлечь большее количество клиентов.
Google и Яндекс к таким сайтам относятся одинаково негативно, но каждый по-своему. Яндекс в этом случае оставляет в выдаче лишь один сайт, который, по его мнению, больше остальных соответствует данному запросу. А вот Google снижает позиции всех аффилированных сайтов: например, один на третьем месте, а другой, скажем, на 50-м.
Согласно правилам Яндекса, применение фильтра к аффилированным сайтам, распространяющееся как на контекстные объявления, так и на выдачу, выполняется к сайтам со следующими признаками:
• При совпадении на сайтах большей части ассортимента;
• Если с сайтами работают одни и те же поставщики по одной и той же линии товаров;
Чтобы выявить сайты-аффилиаты, поисковые системы руководствуются следующими характеристиками:
• Одинаковые контактные данные при регистрации и данные, указанные в качестве контактных, на самих сайтах;
• Одинаковые цены и ассортимент;
• Одинаковое описание каталогов и разделов;
• Расположение вызывающих подозрение сайтов на одном хостинге;
• Жалобы конкурентов.
Если сайт попал под аффилиат-фильтр, необходимо:
• Выявить причины;
• Уточнить, с каким сайтом от зааффилирован;
• Если сайт был ошибочно зааффилирован, необходимо обратиться в поисковик;
• В случаях, если аффилиат был создан специально, необходимо переделать сайт, либо продать домен, чтобы перераспределить запросы между сайтами-аффилиатами: то есть чтобы один сайт был оптимизирован под одну группу запросов, а другой – под другую.
В случае удаления из выдачи зааффилированного сайта, он все равно продолжает индексироваться. А после апдейта – менять свою позицию в выдаче.
Из признаков, благодаря которым ПС выявляют сайты-дубликаты, стоит назвать:
• Смену формата документа;
• Наличие у одного документа нескольких разных урлов;
• Редактирование текста со сменой абзацев и порядка предложений;
• А также сознательную уникализацию текста с заменой слов синонимами.
Технологии, с помощью которых ПС определяет, является ли сайт дублем, это онлайн- и оффлайн-кластеризация.
При онлайн-кластеризации анализируется текст и ссылки, расположенные на сайте. Причем это происходит во время формирования выдачи. Если при анализе ПС выявила, что сниппеты совпадают, значит, результаты показываются как один, то есть относятся к одному кластеру.
При оффлайн-кластеризации во время индексации сайта происходит вычисление хэш-функций. На этом этапе текст очищается от стоп-слов, тэгов и html-разметки. Этот алгоритм работает на основе обратного индекса ПС, основанного на выделении слов в одном документе и статистики слов во всей коллекции. В ходе такого анализа выбрасываются слишком редкие и слишком частые слова. А оставшиеся слова входят в словарь, описывающий коллекцию документов, хранящихся на сайте.
После анализа многих программ и систем для поиска плагиата в сети экспертами был сделан вывод: при замене каждого 4-го слова в тексте можно создать уникальный, с точки зрения ПС, текст.
Источник seonews.ru.