Страницы пагинации на сайте – головная боль оптимизаторов. На WordPress это решается просто – с помощью плагина Yoast Seo. Даже в бесплатной версии есть возможность указать канонический адрес в настройках каждой страницы. И это убережет от такого неприятного момента, как дубли мета-тегов. Однако у меня на клиентском сайте они все равно появились, что обнаружилось при очередной пробежке по вкладкам поисковой консоли Гугла. Ошибку признаю, допустила ее по такой причине: при переносе сайта с конструктора на вордпресс контента в формате post (записей) практически не было. Предосторожность на первое время была все же предпринята: записей в настройках выставила 20 (по умолчанию – 10). А анонсы в архивах всегда делаю короткими.
Мой «рабовладелец» содержит немалый штат, в том числе и копирайтеров. Поэтому ресурс разрастается быстро, и в рубриках появились page/2/, page/3/. Гугл пока увидел первую. При первоначальных настройках плагина Yoast подвела недальновидность — просто закрыла страницы пагинации от индексации, что совершенно неправильно. Такой контент обязательно должен индексироваться – по сути это же не дубли, содержимое меняется и отличается на каждой page/X/ и page/Y/ так часто, как переваливает количество записей за установленную цифру.
Код выглядел так:
Что интересно, в настройках Yoast Seo в самой рубрике, чего моя рука, кроме прописывания мета-заголовков, не касалась, по умолчанию стояло index — в коде был noindex. Странное несоответствие – в глобальных настройках стоит запрет, в коде html тоже, в конкретной рубрике запрета нет. И Гугл решил страницу проиндексировать.
Осталось действовать: открыть редактирование рубрики, нажать на шестеренку и указать адрес первой страницы в чистом виде, как он есть.
В шаблоне вордпресс generatepress, к счастью, при возвращении на первую страницу рубрики не появляется page/1/, а вот в других темах такое встречала. Надеюсь, yoast благополучно справляется и с такой ссылкой.
Непонятно одно: canonical настраивается легко, но в плагине зачем-то выведены еще и теги «prev» и «next». Считается, что одновременное применение такой каши на страницах пагинации – не лучший вариант. Но дубли мета-тегов на сайте точно не нужны. Вредно для продвижения.
Я так страницы пагинации закрываю от индексации. По сути, это ненужный элемент, которые можно закрыть. Исключение составляет лишь пагинация в комментариях. Там контент уникальный и его лучше открывать, чтобы потом люди могли его найти из поиска.
А пагинация архивов — это лучше закрыть. Контент там не слишком уж важен для пользователя. Тем более это дочерний элемент.
Открывать только нужно первую главную страницу архива. Она наиболее важна для пользователя. Сначала он заходит на нее, а уже потом будет искать нужные материалы с помощью пагинации.
Конечно же, возможно лучше будет если открыть пагинацию чтобы человек с поиска сразу попадал на нужную страницу раздела. Однако по-мне это чревато для SEO.
Во-первых, в поиске будет много одинаковых страниц с описанием и тайтлом. В итоге они будут конкурировать между собой. А нам желательно выделять только один наиболее важный вариант для ранжирования. Это будет главная страница архива.
Во-вторых, даже если пользователь захочет найти конкретную статью в архиве, то вместо того, чтобы попадать на дочернюю страницу данного архива с нужным анонсом записи, он должен попадать сразу на саму статью.
Это еще одна весомая причина закрыть от индексации пагинацию архивов. Я так у себя их все закрываю. По мне, так как-то правильнее.
Да, если прописывать уникальные анонсы, то это не будут полные дубли. Но тут еще дело в полезности страниц для пользователя. Если он ищет раздел, то должен сразу попадать на главную этого раздела. Если он ищет решение проблемы, то должен попадать на статью, а не дочернюю страницу раздела с анонсом статьи.
Вот это я понимаю — аргументация! )) Привет, Сергей! Вот и я закрывала страницы пагинации от индексации и в плагине, и в файле robots. Но Гугл как-то их вытащил на свет и поругался на дубли мета-тегов. Пусть, по крайней мере, видит, что у этих страниц есть каноническая. А вообще боты сами прекрасно разбираются, что показывать в выдаче на запрос — категорию ли, запись ли. В интернет-магазинах ситуация в корне отличается — там относительно уникальный контент на каждой странице пагинации. Их закрывать в disallow никак нельзя. Нет большого ИМ под рукой, чтобы можно было проанализировать и не гадать на кофейной гуще, нужны ли в поиске страницы пагинации ИМ.
Возможно, для интернет магазина тут будет по-другому. Я так с ними не работаю, поэтому точно сказать не могу. Но вот для инфосайтов я так это дело закрываю.
Вот только в роботсе я ничего не закрываю. У меня там все открыто, поскольку страницы закрываю не через роботс, а через исходный код. К тому же если закрыть через роботс, то робот может не попасть на саму страницу и только не узнать, нужно ли ее закрывать от индексации или нет.
Поэтому когда при проверке индекса сайта могут всплывать такие мусорные страницы с описанием типа «Эта страница запрещена в роботсе….»
В общем, для инфосайтов нужно в роботсе все открывать чтобы сам робот смог попасть на все страницы. А закрывать нужно уже с помощью мета роботс в исходном коде страниц. Вот тогда будет нормально. Робот зайдет на страницу и уже наверняка будет знать, что она должна быть закрыта к индексации. Потом и мусора этого не будет.
А еще советую для тайтла страниц пагинации на конце прописать типа (страница 2 из 5). Там просто в настройках сео плагина нужно добавить атрибут. Это для робота будет еще более понятнее. Хотя он и так должен знать.
А что вы скажете о страницах комментариев?
Поясню, если на главной с виджета «последние комментарии» перейти на коммент, то будет переход на страницу с #comment на конце. Это дубли? И как с ними бороться?
Думаю, с дублями нужно бороться только в случае, если используются древовидные комментарии. Вот Replytocom допускать опасно. А обычный комментарий, откуда бы Вы ни перешли, будет иметь один адрес. Ко всему, что после решетки в адресе, поисковики понимают, как относиться.
а зря. посмотрите на том же генератепресс. поставьте виджет «последние комментарии», и перейдите по ссылке, и увидете ужасающую картину. а ведь это адреса присутствуют независимо от того, включен виджет или нет
Не могу судить так, огульно. На каждом сайте море ссылок, которые выполняют роль служебных. У меня на сайтах, где эта тема, комментариев нет вообще. Да и вообще не вижу смысла выводить подобные виджеты. Понимаю, популярные записи, для привлечения к ним внимания. Но если проблема есть, она решается однозначно, или запретом в файле robots, или правкой шаблона. Сегодня, например, на одном сайте обнаружила, что в анонсах в рубриках не выводятся альты картинок, хотя сами картинки есть. Программист поправил за 5 минут. Меня тоже бесят все эти мелочи. ))
Это не дубль. Это даже не отдельная страница. Это просто часть отдельной страницы. То есть якорь, который привязан к какому-то определенному месту на странице.
Это необходимо для юзабилити. Чтобы было удобно пользоваться сайтом.
Это тоже самое, что и содержание в постах. Кликаешь по нему, и тебя перебрасывает на нужный подзаголовок.
Для комментариев перебрасывает просто на нужный комментарий, но страница при этом одна и та же.
А страница комментариев (если для wordpress), то это будет comment-page, а не только #comment.
Вот тут могут быть дубли, так как эта CMS изначально плохо оптимизированна для комментариев. Но если все сделать правильно, то проблем не должно быть.
Я у себя на блоге сделал такую разбивку комментариев. Вот для примера самый комментируемый пост:
alpha-byte.ru/wordpresso/wordpress/oshibki-sayta
Не выдержала душа поэта? )) Спасибо, Сережа! А меня тут задергали немножко в быту, даже не сосредоточиться, чтобы сформулировать понятно. Коротко и ясно: якорь!
хорошо, успокоили. а то я запаниковал. посмотрю ваш сайт, тоже интересно
так в том то и дело, что независимо от того, выводите вы этот виджет или нет, как только появится первый коммент на ваших сайтах под генератепресс, то сразу этот дубль появится ))
Можете показать оба варианта ссылок? Лучше на почту.