Перейти к содержанию
Форум поддержки пользователей VamShop

Удаление дублей страниц


Рекомендуемые сообщения

Здравствуйте!

Обнаружил у себя изрядное количество дублей страниц товаров и категорий в виде:

xxxxxxxxxxxx.html?page=2   или 3 или 4

Хочу от них избавиться. В одной старой теме на форуме предлагается вариант: добавить в robots.txt:


Disallow: /*?page=1

Так как тема развития не получила, к тому же она довольно старая хочу узнать правильно ли будет так сделать?
Только указать не 
page=1, а

Disallow: /*?page=2
Disallow: /*?page=3
Disallow: /*?page=4

если это неправильный ход, то как правильно?

Заранее спасибо!

Ссылка на сообщение
Поделиться на другие сайты
Может так:
Disallow: /*?page=*
Только зачем их удалять, это ж основной контент магазина, список товаров, по-моему, именно товары внутри категорий и ищут посетители поисковиков.
Ссылка на сообщение
Поделиться на другие сайты

Дилемма в том, что среди этих ?page=2/3/4 есть и "нормальные" страницы - продолжения, когда товары не умещаются на первой.
Но, есть и дубли, которые совсем не нужны.

Если использовать запрет: 
Disallow: /*?page=*  - убьется, ведь все подряд, в том числе и мусор.

Стоит ли жертвовать этими "продолжениями" страниц ради избавления от дублей?

Просматривать глазами список страниц в индексе и вычислять ненужное, как то затруднительно...

С другой стороны так ли уж нужны эти продолжения страниц?

Если человек ищет "кольца серебряные" он получит страницу kolca-serebryanie.html, ну да, у этой категории еще есть 3 страницы - но, все равно же человек получил, что искал в выдаче поисковика. Логично? Или я что то упустил?


 

Ссылка на сообщение
Поделиться на другие сайты

Так и в Вашем примере тоже убьётся всё подряд, что имеет в адреса page=2 и т.д.

 

Вообще да, я тоже считаю, что главная страница для магазина и для посетителя - это страница карточки конкретного товара.

 

Но всё-таки списки товара тоже могут быть полезны.

Ссылка на сообщение
Поделиться на другие сайты
×
×
  • Создать...