Чем страшен дублированный контент для сайта

Чем страшен дублированный контент для сайта

О вреде дублей и методах эффективной защиты

Формируя для клиентов международной группы IT  компаний WebMate каждый месяц отчеты о проделанной работе, мы упоминаем о том, что регулярно отслеживаем контент  на предметы повторов и избавляемся от дублей. Почему это необходимо делать? Что такое дубли? Как они появляются? Как их найти? Как они могут повлиять на продвижение?

Итак, отвечаем на вопросы, а также рассказываем, что делать, чтобы дубли не потопили ваш сайт.

О дублированном контенте: описание и классификация

На пути к желаемому результату – высоким позициям и популярности среди представителей целевой аудитории, SEO продвижение встречает множество препятствий, решение которых требует поддержки опытных специалистов. Дублирование контента является одним из распространенных проблем. Такой контент принято еще называть «копипаст».

Дублированным считается контент, где разные URL, но содержание, т.е.  наполнение страниц, идентично оригиналу.  

Дубли могут располагаться:

  • на одном доменном имени;

  • на нескольких.

Иными словами, дублирующий контент - это идентичный или максимально схожий текст на двух или более страницах внутри одного сайта или на совсем разных ресурсах.

Дублированный контент: в чем вред для сайта

Контент имеет большое значение при ранжировании сайтов. Многое зависит от его уникальности и пользы для аудитории.

При появлении дублированного контента, возникают высокие риски  что:

  • снизится уровень ранжирования;

  • web-ресурс отправят в «бан».

Как появляются дубли

  1. Копирование. Это распространенный, но не единственный способ появления повторов контента внутри одного ресурса или на сторонних площадках.

  2. Индексация. Если невозможно исключить тестовую версию сайта из индексации.

  3. Переадресация. При невыполненной переадресации.

Классификация дублей

  • по объему скопированного контента:

    • полные;

Т.е. содержат одинаковый материал на 100%, например:

  1. сайты-зеркала, где адрес не/содержит распределенную систему www, main page и реферальных(партнерских) программ.

  2. страницы, с некорректной иерархией, где в URL наличие множественных символов // или ///.

  3. ошибки при переезде на протокол SSL. Чтобы показатели сайта не падали, ошибки требуют обязательного немедленного удаления.

  •  частичные.

Т.е. частичный повтор контента, например:

  • web-страницы пагинации (порядковой нумерации), сортировки, возникновение которых, как правило, связано с особенностями CMS.

Специалисты распознают их по динамическому GET-параметру в URL, который позволяет вносить изменения в содержимое документа.

  • разные типы страниц: отзывы, свойства товара, фильтрация или копии, сделанные через AJAX — технологию, благодаря которой возможно  взаимодействие с сервером без перезагрузки страницы.

Страницы с одинаковым контентом, которые возникают внутри определенного сайта (но по разным адресам, которые присвоены каждой странице) и на нескольких, называют:

  • внутреннее дублирование;

Как результат — каннибализация фраз. Это значит, что для одного ключа могут отображаться две и более подстраниц одного доменного имени.

Это приводит к «скачкам» позиций в результатах поисковой выдачи – страницы показывают по очереди, поскольку .роботы поисковой системы не могут определить, какую страницу демонстрировать.

Более того, алгоритмы Google считают эти страницы низкого качества и при ранжировании предпочтут другие.

  • внешнее дублирование.

Речь идет об идентичном контенте с разных web-ресурсов.

Причин может быть несколько: осознанный плагиат или дублирование контента с собственного сайта на сторонние площадки.

Сюда же относятся и дубли страниц в поддоменах.  При размещении одинакового текста  на страницах с несколькими доменными именами, поисковые роботы Google отобразят на высоких позициях страницу, которая:

  • прошла лучшую оптимизацию;

  • была создана раньше;

  • имеет ссылку, размещенную на большом количестве донорских площадок.

Дублированный контент: как его определяет Google

Кстати, дублями не считаются данные в части футера сайта, которые предусмотрены в неизменном виде для каждой страницы. Благодаря особой разметке или дизайну, Google не воспринимают такую информацию, как статью.

Важно понимать, что несмотря на то, что за использование дублированного контента Google Search Console напрямую не наказывает, сайт точно пострадает от наличия на разных страницах максимально похожего или идентичного контента внутри одного ресурса или на нескольких.

 

Поисковые системы еще учатся абсолютно точно определять первоисточники дублированного контента, совершенствуя изучение уникальных шифров, кодов и многих показателей.

Описывая внешние и внутренние дубли, мы уже упоминали, что сталкиваясь с повторами, поисковый алгоритм Google выбирает, какой именно будет размещен на верхних позициях поисковой выдачи. Такая сортировка, увы, не гарантирует  ТОПовых позиций даже самому потрясающему тексту-источнику, если в сети есть его аналоги.

В результате, часто именно первоисточники страдают от работы поисковых систем.

Дублирование контента: как обезопасить свой сайт

У SEO специалистов есть свои приемы и хитрости для защиты уникального контента на своем сайте-первоисточнике от копирования и распознания его поисковыми системами, как дублированного.

Например:

  1. На странице из текста выбирают строку  в 6-7 слов.

  2. Помещают ее в строку поиска для проверки на уникальность. При высокой уникальности текста совпадения отсутствуют.

  3. Покупают ссылки для размещения на страницу с выбранным контентом, где проверенную на уникальность фразу используют как анкор для ссылки.

В результате использования этого метода, именно этот сайт с уникальным контентом будет распознаваться, как первоисточник после завершения его индексации поисковыми системами.

Для выявления дублей на сайте и определения первоисточников можно воспользоваться различными онлайн сервисами и программами, которые предлагают бесплатные версии или варианты глубокой проверки для зарегистрированных пользователей.  Например:

Content-watch, Antiplagiat, Text.ru, Advego Plagiatus и многие другие.

Для текстов, которые дублируются на нескольких URL SEO специалисты практикуют использование специального тега, который приводит поисковых роботов к базовой версии.

Во избежание дублей страниц для интернет-магазинов эффективной является практика создания уникальных карточек на похожие товары, где есть функция «выбрать нужный вариант». Но в этом случае важно выполнить два условия:

  • оставлять URL неизменным;

  • перенаправить подстраницы на главную.

Подведем итоги

SEO специалисты ежедневно сталкиваются с распространенной угрозой для сайта в виде дублированного контента. Работая с сайтами клиентов, команда международной группы IT компаний WebMate не только наполняет каждую страницу уникальным и полезным контентом для пользователя и держит ситуацию под контролем, своевременно принимает меры по предотвращению дублей. Благодаря регулярному мониторингу ресурсов, специалисты выявляют проблемы на ранней стадии и быстро устраняют их.

Ответственный подход на каждом этапе работы, создание качественных текстов  - залог гарантированного результата и успешного поискового продвижения сайтов.

Доверьте нам ваш сайт и вы будете довольны результатом!

 *****************

 ВОПРОС/ОТВЕТ

  1. Когда надо делать проверку на дубли?
Требуется регулярная проверка контента на дубли. Недостаточно провести проверку на начальной стадии работ по технической оптимизации сайта. Копирование и другие, перечисленные в статье нюансы могут  произойти в любой момент.  
  1. Как избежать дублей, если уже подобраны ключи и создан контент на каждый тип товара?
Требуется создание индивидуальных адресов URL. Это позволит оптимизировать товар под отличительные черты. Как результат - улучшение видимости в выдаче, а благодаря ключам с хвостами, заинтересуются больше настоящих или потенциальных клиентов.
  1. Как Google определяет каноническую страницу
Для определения URL страницы, которую роботы Google считают, как главную среди нескольких ее вариантов на сайте, поисковик учитывает свыше 20 сигналов, значимость которых определяет нейросеть. Если один сигнал снижается, происходит увеличение веса другого.
  1. В чем ключевое отличие дубликатов от каноникализации?
Сначала дубли страниц определяются и группируются между собой. В процессе селекции происходит каноникализация, т.е. выявление основной страницы.
Поделиться в соц. сетях
Казахстан
Алматы, пр. Сейфуллина, 531, офис 505/1,
БЦ "Сарыарка Алуан"
WebMate в соц сетях
Остались вопросы?
Задать вопрос специалисту
2021 © WebMate - Агентство интернет-маркетинга