Разбивка на страницы и многогранная навигация для SEO

  1. Noindex, следуйте методу нумерации страниц
  2. Rel = ”next” и Rel = ”prev”
  3. Примечание на всех страницах
  4. Когда этот фильтр выбран, это важно или просто накладные расходы?
  5. Проверьте слайды Адама Одетта от SMX Advanced!

Нумерация страниц, навигация, канонизация - О, МОЙ! Если вы сайт электронной коммерции, то это все проблемы, с которыми вы, вероятно, уже знакомы. Как сделать мои 20 000 страниц доступными и полезными для моих пользователей? Могу ли я сделать это как для моих пользователей, так и для поисковых систем? Каковы SEO-последствия, позволяющие паукам сканировать бесконечную пропасть фильтруемых страниц на моем сайте? А как насчет дублированного контента? Большие и общие вопросы - к счастью для нас Адам Одетт из ранее AudetteMedia (сейчас RKG) представила некоторые решения на SMX Advanced в Сиэтле ,

Слайд-колода Адама включена в конец этой статьи, но я расскажу о нескольких его основных моментах.

  • Нумерация страниц делает и не делает
  • SEO для граненой навигации
  • Rel каноническая реализация

Для сайтов, которые имеют много контента, им часто имеет смысл дать своим пользователям возможность фильтровать свой контент с помощью многогранной навигации, а также предлагать постраничные результаты. Постраничные результаты могут повысить ценность за счет сокращения времени загрузки страницы, но это также может привести к нескольким сложностям с вашим SEO.

Давайте посмотрим на Zales, например: они имеют постраничные результаты, которые живут по URL с конкретными номерами страниц в параметрах URL. (Текст, выделенный жирным шрифтом в приведенном ниже URL-адресе, подчеркивает, что это постраничный результат)

http://www.zales.com/family/index.jsp?categoryId=3045659 & kpc = 1 & pg = 2

categoryId=3045659 & kpc = 1 & pg = 2

Весь этот разбитый на страницы контент индексируется поисковыми системами и может создать путаницу для сканеров. И теперь, когда мы живем в мире пост-панды / пингвинов, термин «дублированный контент» должен найти отклик у большинства веб-мастеров и привлечь их внимание. Итак, как мы можем укрепить нашу защиту от подобных проблем?

Итак, как мы можем укрепить нашу защиту от подобных проблем

Noindex, следуйте методу нумерации страниц

Один из способов избежать дублирования контента в разбивке по страницам - использовать noindex, следовать атрибуту на всех страницах после первой. Это означает, что если ваш параметр url равен pg = 2, pg = 3,…, pg = N, где N равен номеру страницы в разбивке на страницы, всякий раз, когда N> 1, у вас будет noindex, следуйте на этих страницах. Сделав это, вы убедитесь, что отправляете трафик только на эту 1-ю страницу (которая должна быть вашей наиболее важной / релевантной страницей для этой категории), но вы также просите поисковые системы переходить по всем ссылкам, которые на этой странице. Атрибут follow будет гарантировать, что мы эффективно передаем рейтинг через наш сайт и что сканер может фактически получить доступ к остальной части нашего сайта.

Вы также должны иметь тег rel = ”canonical”, реализованный на этих страницах, как еще один сигнал для Google. Канонические ссылки в разбивке по страницам должны быть самоссылочными - страница 1 указывает на страницу 1, страницу 2 на страницу 2 и т. Д.….

Rel = ”next” и Rel = ”prev”

Rel next / prev - это новый формат, который Google ввел, чтобы лучше понять наши веб-сайты. Rel next / prev фактически объединяет все страницы и контент в разбивке по страницам на «одну страницу», сообщая Google, какие страницы связаны друг с другом.

Разбитое по страницам содержимое все еще отображается для сайта: выполняйте поиск даже с этой разметкой rel (Mindy, от Google подтверждает это на #SMX), так как Google все еще сканирует эти страницы. Поэтому, если вы ведете сайт: ищите точное совпадение заголовка страницы, вы все равно должны увидеть страницы 1, 2, 3, 4 и т. Д. Единственное отличие состоит в том, что Google может затем решить, какой список с нумерацией страниц наиболее релевантен определенному запросу, и показать только этот.

Итак, ключевые выводы с rel = next / prev:

  • Все страницы индексируются, но оценивается только ОДИН
  • Страница с нумерацией страниц может превзойти страницу 1, если она более актуальна

Protip - каноническое должно по-прежнему использовать ссылки на страницах, которые вы добавляете в разметку rel next / prev. Вам не нужно беспокоиться о наличии дублированных заголовков и мета на этих страницах, так как они все равно будут рассматриваться как часть одной и той же страницы Google.

Примечание на всех страницах

Пользователи любят просматривать все страницы. Им нравится иметь возможность видеть весь контент прямо на одной странице, не щелкая ссылку на другой контент, не ожидая загрузки следующей страницы и т. Д. Если вы делаете хорошую работу, чтобы убедиться, что ваш ценный контент растет в верхней части страницы просмотра всех, то это часто предпочитаемый пользовательский опыт на вашем сайте.

Тем не менее, просмотр всех страниц вносит некоторые сложности в то, что они значительно увеличивают объем данных, загружаемых на страницу. Чаще всего это «нет нет» для сайтов электронной коммерции, которые имеют тысячи продуктов, которые могут загружаться на любой странице категории или подкатегории.

Поэтому, если вы решите выбрать лучший пользовательский интерфейс на своем сайте, убедитесь, что у вас БЫСТРО просмотр всех страниц! Ваши серверы могут не понравиться вам за это, но ваши пользователи определенно будут =]

Мы взглянули на то, как Zales использует многогранную навигацию, чтобы позволить своим пользователям легче находить то, что они ищут. Фасетная навигация - отличный вариант для ваших сайтов, и на большинстве платформ эта функция встроена, поскольку ее ценность очевидна.

Но когда вы используете многогранную навигацию, вы должны помнить одну вещь: вы пытаетесь улучшить качество обслуживания клиентов на вашем сайте. Многогранная навигация не всегда означает, что она лучше всего подходит для поисковых систем, даже если ваши пользователи поступают правильно. На самом деле, он часто может создавать страницы, которые мало что значат для людей, которые ищут в поисковых системах.

Например, если у вас есть фильтры цен по умолчанию на каждой странице, вы можете увидеть что-то вроде страницы категории для планшетов Android, но с фильтром «25,00 долл. США и ниже». Подождите секунду ... эта страница, очевидно, не будет иметь большого смысла, так как не было бы никаких предложений для планшетов до $ 25. Если вы найдете конкретный пример, где есть, пришлите мне ссылку, и я куплю один для нас обоих!

Но это та страница низкого качества, которую Google отсеивает из своих индексов с Panda и Penguin.

Так что спросите себя:

Когда этот фильтр выбран, это важно или просто накладные расходы?

  • Фильтры ценового диапазона не могут добавить такой же ценности, как фильтр для конкретной марки или модели. Хотя ценовые диапазоны могут быть актуальны, когда пользователь находится на вашей странице, они не так актуальны для поисковых систем.
  • Всегда форсируйте канонические пути независимо от фильтра

Недостатком создания сканируемой / индексируемой граненой навигации является то, что она увеличивает накладные расходы, связанные с вашими серверами. Тем не менее, при правильной стратегии и реализации вы сможете покрыть дополнительные расходы за счет увеличения числа конверсий, полученных в результате обычного поиска.

Проверьте слайды Адама Одетта от SMX Advanced!

В слайде Адама есть немного больше информации, включая несколько примеров из реальной жизни, которые помогают проиллюстрировать основные моменты. Не забудьте проверить это и подписаться на него в Twitter, если вы можете - @audette - вы не пожалеете об этом!

об авторе + Дэвид Вейхель является директором платного поиска в КТК Стратегия. Он специализируется на оптимизации коэффициента конверсии, поисковом поведении и анализе атрибуции. Дэвид окончил Калифорнийский университет в Сан-Диего со степенью бакалавра наук в области управления. Посмотреть все сообщения этого автора Вот ,

Как сделать мои 20 000 страниц доступными и полезными для моих пользователей?
Могу ли я сделать это как для моих пользователей, так и для поисковых систем?
Каковы SEO-последствия, позволяющие паукам сканировать бесконечную пропасть фильтруемых страниц на моем сайте?
А как насчет дублированного контента?
Jsp?
Итак, как мы можем укрепить нашу защиту от подобных проблем?