Индексация страниц пагинации
Пагинация — это постраничная навигация на сайте, назначение каждой странице своего номера. Все её видели в крупных интернет-магазинах, на новостных сайтах или блогах, где контента столько, что не вмещается на одну страницу. В результате у каждой свой номер: 1, 2, 3… и до бесконечности. Пагинация — это очевидное решение для удобства пользователя, однако оно вызывает ряд вопросов связанных с поисковым продвижением.
Каждая новая страница пагинации усложняет поисковое продвижение по той причине, что одно из главных правил SEO — каждая страница должна соответствовать конкретному запросу. Плодящиеся дубли при пагинации этому никак не способствуют.
Хотя сама пагинация для SEO полезна по нескольким причинам:
- Благодаря пагинации на одной странице уменьшается количество ссылок.
- Упрощается индексация, так как поисковый робот может быстрее найти необходимую страницу, перейдя на нее из списка страниц категории.
- Пагинация — это самое удобное решения для посетителя сайта, а значит, она улучшает поведенческие факторы.
Однако, пагинация, если её неправильно настроить, поисковому продвижению только вредит. Речь идет о том, что вложенные страницы одной категории будут прямым конкурентом канонической страницы (в той или иной степени неся идентичную информацию), то есть создается дубль. И с этим нужно бороться путем исключения страниц пагинации из индекса.
Исключение пагинации из индексации
Способов исключения страниц пагинации из индекса есть несколько.
Канонические ссылки
Пожалуй, самый предпочтительный способ. Про каноническую ссылку говорилось выше — это ссылка на главную страницу или главную страницу раздела. Указать, как страница является главной. Достаточно на каждой странице пагинации разместить код следующего типа:
<link rel=»canonical» href=»http://site.ru/category/»/>
Таким образом мы указываем основную страницу, а все остальные (то есть страницы пагинации) исключаются из индекса.
Robots.txt
Заставить поисковик обойти определенные страницы можно, как мы знаем, с помощью файла robots.txt. Это делается с помощью команды Disallow.
Например, если страница пагинации находится по такому урлу: http://site.ru/blog/page/5, то в robots.txt нужно прописать Disallow: /blog/page
Но в некоторых случаях может возникнуть нюанс в виде динамических страниц. То есть ссылка на страницу пагинации будет выглядеть следующим образом:
http://site.ru/blog?page=5
В этом случае прописываются команды следующего вида:
Disallow: ?page=
или
Clean-param: page /
Метатег noindex
Есть вариант прописать в секции <head> тег noindex:
<meta name=»robots» content=»no index, follow» />
С такой командой поисковик не будет индексировать данную страницу, однако у этого метода есть минус: он не применим для Гугла.
Теги rel=»prev» и rel=»next»
А этот способ понимает уже только Гугл, но не Яндекс. Его суть заключается в том, что в <head> страницы помещаются строки такого типа:
<link rel=»prev» href=»http://site.ru/page1.html»>
<link rel=»next» href=»http://site.ru/page3.html»>
Как можно заметить, это код для второй страницы. Для последней страницы в списке будет только строка с rel=»prev», а для первой, соответственно, rel=»next». Способ несколько громоздкий в реализации, но действиенный: благодаря нему Гугл все страницы будет рассматривать как единое целое.
AJAX-пагинация
Технология AJAX (Asynchronous Javascript and XML) означает, что страницы не нумеруются — весь контент размещается на одной странице, подгружаясь по мере прокрутки. Для поисковика такой каталог будет проиндексирован как одна страница, а для посетителей это вариант достаточно удобен и привычен.
В общем, ничего сложного. Главное помнить, что большое количество страниц на сайте — не означает рост его качества, и что все лишнее нужно непременно скрывать от поисковиков.