Проблеми з шаруватою / гранованою навігацією SEO в Magento

Накладання з шаруватою або гранітною навігацією є однією з найпоширеніших причин дубльованого вмісту, і вона добре відома тим, що викликає розчарування у SEO-ситуаціях через надмірну індексацію та підвищений рівень сторінок із низькою якістю Накладання з шаруватою або гранітною навігацією є однією з найпоширеніших причин дубльованого вмісту, і вона добре відома тим, що викликає розчарування у SEO-ситуаціях через надмірну індексацію та підвищений рівень сторінок із низькою якістю. Основна причина, чому я пишу цю статтю, а також допомагати розробникам Magento та власникам сайтів, полягає в тому, що мене запитують про це принаймні раз на тиждень (електронною поштою), і я вирішив, що легше забезпечити людей керівництво до того, що вони повинні і не повинні робити.

Сторінки фільтрування є величезною проблемою для роздрібних продавців Magento, оскільки вони доступні в межах платформи, і це дуже зручно з точки зору користувача. Magento також допомагає, використовуючи атрибути, які знаходяться поза функціональними можливостями.

Існує багато способів боротьби з гранітною навігацією (як я маю на увазі, як на цій посаді) у Magento, деякі з яких є правильними, деякі з них неправильні - я збираюся пройти через кожну опцію в цей пост і пояснити, чому вони хороші або погані ідеї з точки зору SEO.

1. Використовуйте канонічний тег (GOOD OPTION)

Канонічний тег є очевидним варіантом, якщо ви запускаєте новий веб-сайт або просто додаєте фільтрування до існуючого веб-сайту електронної комерції, однак це не так добре, якщо ви намагаєтеся отримати сторінки з індексу. Я виявив, що Google часто займає кілька місяців, перш ніж прийняти до уваги нещодавно доданий канонічний тег, і ви не зможете робити запит на видалення, оскільки ви не відповідаєте вимогам Google (що сторінка або обслуговує помилку 404, тег noindex на сторінці або заборонений у файлі robots.txt).

Канонічний тег також передаватиме значення на сторінку, на яку вона канонізується, що особливо корисно, якщо ваші сторінки фільтрів мають посилання на них, оскільки значення буде передано до основних версій сторінок.

Канонічний тег повинен завжди бути присутній, навіть якщо ви також використовуєте інший метод, оскільки це допомагає запобігти виникненню проблем з рядками запитів і параметрами, що викликають проблеми з надмірною індексацією, і це допомагає підтримувати значення посилання. Ви можете дізнатися більше про те, чому канонічний тег є фундаментальним для Magento в це керівництво для Magento SEO Я написав кілька місяців тому.

VERDICT: Найкращий варіант, але більше для нового сайту

-

2. Маскуйте фільтровані статичними URL-адресами та подайте їх до пошукових систем (BAD OPTION)

З деяких причин для роздрібних продавців дуже часто вибирають просто переписати URL-адреси сторінок динамічного фільтра, а потім припустити, що все нормально, тому що вони виглядають як статичні сторінки - це не так! Тільки тому, що ви змушуєте їх виглядати статичними сторінками, не змінюється той факт, що їх, ймовірно, буде тисячі (з комбінаціями з декількох сторін), і вони є сторінками низької якості, оскільки вони не містять жодних унікальних сторінок. зміст.

Є також занадто багато SEO, які рекомендують роздрібним клієнтам Magento - це не допомагає ситуації взагалі, це просто ускладнює написання правил застосування правил для канонічних тегів, правил мета-роботів тощо.

Ось приклад: http://magento-website.com/radios/ <додавання фільтра цін від £ 100 до £ 200 зробить це http://magento-website.com/radios/price/100-250.html

Наведений вище приклад показує, як застосовано фільтр, а URL-адреса змінилася, але нова сторінка є динамічною і не може полегшити користувальницький вміст або метадані, що робить їх непридатними з точки зору SEO (і згубними).

ВЕРДІК: Дуже погана ідея

-

3. Теги мета-роботів (GOOD OPTION)

Визначення правил додавання мета-роботів або тегів x роботів є моїм улюбленим методом для веб-сайту, який вже має існуючі проблеми, інакше він поступається канонічним тегом. Параметр meta / x robots також, як і параметр robots.txt, відповідає вимогам Google, щоб надіслати запит на видалення за допомогою Інструментів для веб-майстрів - що полегшує усунення проблеми (оскільки ви можете вручну видалити URL-адреси з індексу Google)

Призначивши noindex, виконайте теги, які сповіщають Googlebot не індексувати сторінку, але продовжувати слідувати за посиланнями на сторінці, тому ви не ризикуєте фрагментувати сканування, що може статися при використанні маршруту robots.txt.

Основною перевагою використання тегу noindex є мета, що полягає в тому, що значення може переходити на інші сторінки, оскільки ви наказуєте Google продовжувати переходити за посиланнями, а не індексувати саму сторінку.

-

4. Використовуйте файл robots.txt (ДОБРИЙ ВАРІАНТ)

Маршрут "robots.txt" є опцією, оскільки ви можете використовувати дикі карти, щоб заборонити різні параметри або розширення URL, але ви повинні переконатися, що існує послідовний розділ URL-адреси, який дозволить вам зробити все. Наприклад, якщо ви бажаєте заблокувати параметри ціни, ви можете включити наступне:

Заборонити: * ціна *

Основна проблема з використанням файлу robots.txt полягає в тому, що посилання на сторінках не пройдуть значення, і якщо на сторінках є посилання, значення не буде передано на інші сторінки, оскільки Google не матиме доступу до сторінки На відміну від цього, якщо ви йдете з мета-роботами noindex, слідуйте варіанту, Google не буде індексувати сторінку, але буде слідувати за посиланнями.

Файл robots.txt дозволяє виконувати вимоги Google щодо виконання запитів на видалення.

-

5. Перетворіть сторінки на редаговані, статичні сторінки (GOOD OPTION)

Перетворення сторінок динамічного фільтра на статичні сторінки (з унікальним вмістом та мета-вмістом), на мою думку, є найкращим варіантом, проте для цього потрібно багато ресурсів для написання спеціального вмісту, а для додавання вмісту до багатьох існуючих проблем може знадобитися багато часу. .

Головною перевагою цього є те, що ви розширюєте архітектуру сайту та створюєте дуже специфічні сторінки для довгих запитів, оскільки більшість роздрібних веб-сайтів не матимуть цільової сторінки. У багатьох випадках, залежно від платформи, вам потрібно буде адаптувати навігацію, щоб дозволити фільтри на цих сторінках (дозволяючи використовувати багатогранну навігацію), але ці сторінки можуть бути неіндексировані, а статичні сторінки можуть бути пов'язані з навігацією.

Інший варіант, залежно від технології, яку ви маєте, і від того, наскільки добре ваші розробники, полягає в тому, щоб ввести ваш вміст на сторінки (знову ж таки, поле для редагування вмісту було б краще) і встановити теги заголовків і мета-описи десь у зворотному.

-

6. Обробка параметрів у Google Webmaster Tools (OK OPTION)

Google представив налаштування обробки параметрів у Інструментах Google для веб-майстрів, щоб дозволити веб-майстрам розповісти, як їхній сканер повинен мати доступ до різних параметрів динамічних URL-адрес. Цей інструмент стає все більш ефективним, оскільки він був вперше випущений, і багато SEO використовують його як основний варіант для боротьби з шаруватою навігації в ці дні.

Я виявив, що цей метод не настільки ефективний, як використання мета-роботів (або канонічний тег, якщо це новий веб-сайт), але я завжди встановлюю обробку параметрів поряд з канонічним тегом і часто поряд з мета-роботами.

Це те, що я тестував багато, і я особисто і не рекомендував би його вище деяких інших варіантів.

-

7. Ніяких посилань на фільтрування сторінок (BAD OPTION)

Цей метод працює, і я бачив багато роздрібних продавців, які вирішили скористатися цим варіантом, оскільки він заощаджує бюджет сканування - однак у нього виникають проблеми, яких не мають інші варіанти, такі як:

Якщо у вас є зовнішні посилання на сторінки або ви випадково посилаєтеся на сторінки, пошукові системи збираються індексувати деякі сторінки, оскільки ви насправді не давали інструкцій для цих сторінок. Він також може виглядати підозріло, що ви заблокували доступ до розділу вашого веб-сайту.

-

Висновок

Я б рекомендував використовувати канонічний тег, якщо ви просто запускаєте веб-сайт з багаторівневою навігацією, а також встановлюєте інструкції для Google через розділ обробки параметрів Інструментів для веб-майстрів. Проте, якщо ви маєте вирішити проблему надмірної індексації, я б рекомендував призначити noindex, слідуйте тегам meta robots або x robots tags, оскільки вони змусять пошукові системи діяти швидше, а також дозволять вам розпочати надсилання вручну запити на видалення (оскільки сторінки будуть відповідати правилам видалення Google).

Якщо у вас виникли запитання щодо шаруватої / гранітної навігації, надішліть мені листа електронною поштою - [захищена електронною поштою] .

Пов'язані