Дублированный контент – это один и тот же текст (или его объемная часть), расположенный на разных страницах с разными URL-адресами.Говоря проще, это неуникальный контент, т.е. одно из самых больших зол в SEO-оптимизации. Дубли возникают по трем основным причинам:
Ошибки и недоработки в настройке сайта. Сюда относится огромный пул причин:
- некорректная работа CMS сайта (например, комментарии и отзывы могут пи нажатии отображаться на отдельной странице с другим URL-адресом);
- ошибки в файле robots.txt;
- ошибки при переносе и настройке шаблонов, поддоменов, тестовых страниц, зеркал;
- неправильная настройка навигации и поиска по сайту и пр.
Лень. Когда для кратких описаний, анонсов не пишется новый текст, а берется начало из статьи (например, первый абзац). И если сайт, на котором расположен такой анонс, индексируется быстрее первоисточника, то основной текст автоматически становится неуникальным.
Воровство. От недобросовестности конкурентов пока никто не застрахован на 100%, можно лишь предпринять ряд мер для защиты контента.
Чем опасен дублированный контент:
Снижение позиций в поисковой выдаче, бан. Поисковые системы наказывают за неуникальный контент очень строго. Из выдачи может вылететь не только страница с дублем, но и весь сайт. Или робот может выбрать дубль для выдачи, а основную релевантную страницу не отобразить.
Но у дублированного контента гораздо меньше социальных сигналов и ссылок, соответственно, позиция по запросу будет гораздо ниже, чем могла бы быть у первоисточника.
Ссылки распыляются по разным страницам. Речь идет не только о покупаемых ссылках, но и о естественных. Если пользователи в соцсетях будут цитировать ваш материал, но ссылаться на разные страницы, эффекта для SEO-продвижения не будет никакого.
Как избавиться от дублей
- Писать разные тексты для разных страниц и площадок. Не лениться и создавать новые анонсы, описания статей.
- Делать все возможное, чтобы новые тексты как можно быстрее индексировались поисковыми системами. Если статья попала в выдачу впервые с вашего сайта, то именно он будет считаться первоисточником. И недобросовестным конкурентам останется только дублировать уже неуникальный контент.
- Если избежать дублей на сайте не удается, то поможет 301-й редирект. Он переадресовывает поисковые роботы с дублированных на основную страницу.
- Настройка файла robots.txt. Он показывает поисковой системе, какой контент надо индексировать, а какой нет.
- Тег <link rel= “canonical”> указывает поисковому роботу, какая страница является основной. Тег размещается на каждом дубле, перенаправляя робота по нужному URL-адресу.