Делайте бизнес как умные люди! Действуйте как профи! Зарабатывайте через систему будущего!      Узнать подробности
  




Home » Трафик и реклама в интернете онлайн » Что такое дубли страниц

Что такое дубли страниц


- Что такое дубли страниц



Дубли страничек — это всераспространенная неувязка, которая возникает из-за того, что какая-либо страничка веб-сайта доступна по нескольким адресам. К примеру, example.ru и www.example.ru – это на самом деле две различные странички для поисковых машин. Естественно, на данный момент они уже автоматом могут определять какую копию допускать в поиск, а какую нет, но никто не застрахован от каких-то сбоев в системе. Потому стоит употреблять редиректы и остальные методы защиты от копий страничек на собственном веб-сайте.

Если у вас много дублированного контента в индексе поисковых машин, то это может весьма плохо сказаться на продвижении вашего веб-сайта. Самые всераспространенные дубли — это «www» и «/» в конце. Не считая того в почти всех CMS постоянно есть какие-либо дубли страничек, либо странички, которые стоит закрыть от индексации, в том числе такие есть и в WordPress.



'); })(document, 'script', 'http');

Как избавиться от дублей страничек на веб-сайте

Самый непростой и самый действенный метод — это настроить 301-редирект на веб-сайте. Это хорошее решение, если вы желаете, чтоб при заходе на веб-сайт с «www», юзера автоматом перенаправляло на версию без «www». Для вас не надо специально что-то настраивать для Yandex’а либо Гугла, поэтому что они сами начнут регистрировать лишь одну версию веб-сайта. Для сотворения 301-редиректа нужно уметь воспользоваться файлом .htaccess. Естественно, в сети есть огромное количество различных статей по настройке этого файла, но не они все работают и итог может оказаться плачевным, поэтому что .htaccess весьма важен и из-за некий излишней строки работа веб-сайта будет нарушена. Но в вебе можно отыскать сервисы, которые автоматом делают этот файл — для вас всего только необходимо избрать нужные для вас функции.

Если вы пользуетесь CMS WordPress, то плагин All in One Seo Pack станет хорошим ассистентом по решению данной трудности. Он автоматом ставит тег канонической странички, и дозволяет употреблять весьма «мощный» метатег – <meta name=”robots” content=”noindex, nofollow”/>. Вставка этого тега на страничку произнесет поисковым системам, что ее регистрировать не надо. Естественно, эта страничка будет доступна для всех юзеров, но в поиске она никогда не покажется.

Файл Robots.txt – это неотклонимый файл на веб-сайте, если вы используете какую-либо CMS. В нем вы указываете, что поисковым системам регистрировать разрешено, а что нет. Ведь у нас нет способности вставлять на дубли страничек особый метатег, а этот файл дозволяет нам воспрещать к индексации копии страничек, при всем этом не трогая кода. Подробнее про файл robots.txt мы поведали здесь.





  


Top Яндекс.Метрика