Так сегодня пишут для бизнеса

УПК-тексты

Форма заказа

| чат заказов

"ChatGPT. Мастер подсказок". Хит продаж OZON

 

Дублированный контент – это один и тот же текст (или его объемная часть), расположенный на разных страницах с разными URL-адресами.Говоря проще, это неуникальный контент, т.е. одно из самых больших зол в SEO-оптимизации. Дубли возникают по трем основным причинам:

Ошибки и недоработки в настройке сайта. Сюда относится огромный пул причин:

Лень. Когда для кратких описаний, анонсов не пишется новый текст, а берется начало из статьи (например, первый абзац). И если сайт, на котором расположен такой анонс, индексируется быстрее первоисточника, то основной текст автоматически становится неуникальным.

Воровство. От недобросовестности конкурентов пока никто не застрахован на 100%, можно лишь предпринять ряд мер для защиты контента.

Чем опасен дублированный контент:

Снижение позиций в поисковой выдаче, бан. Поисковые системы наказывают за неуникальный контент очень строго. Из выдачи может вылететь не только страница с дублем, но и весь сайт. Или робот может выбрать дубль для выдачи, а основную релевантную страницу не отобразить.

Но у дублированного контента гораздо меньше социальных сигналов и ссылок, соответственно, позиция по запросу будет гораздо ниже, чем могла бы быть у первоисточника.

Ссылки распыляются по разным страницам.  Речь идет не только о покупаемых ссылках, но и о естественных. Если пользователи в соцсетях будут цитировать ваш материал, но ссылаться на разные страницы, эффекта для SEO-продвижения не будет никакого.

Как избавиться от дублей

  1. Писать разные тексты для разных страниц и площадок. Не лениться и создавать новые анонсы, описания статей.
  2. Делать все возможное, чтобы новые тексты как можно быстрее индексировались поисковыми системами. Если статья попала в выдачу впервые с вашего сайта, то именно он будет считаться первоисточником. И недобросовестным конкурентам останется только дублировать уже неуникальный контент.
  3. Если избежать дублей на сайте не удается, то поможет 301-й редирект. Он переадресовывает поисковые роботы с дублированных на основную страницу.
  4. Настройка файла robots.txt. Он показывает поисковой системе, какой контент надо индексировать, а какой нет.
  5. Тег <link rel= “canonical”> указывает поисковому роботу, какая страница является основной. Тег размещается на каждом дубле, перенаправляя робота по нужному URL-адресу.

 

 

Опечатка? Пожалуйста, выделите её и нажмите Ctrl+Enter. Спасибо!

Дыры в конверсии

Наша ТОП-новинка 2024

Спасибо, письмо отправлено!

Мы обязательно ответим в ближайшее время 🔔

Узнать больше
Тяни

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: