Здравствуйте! Обнаружил у себя изрядное количество дублей страниц товаров и категорий в виде: xxxxxxxxxxxx.html?page=2 или 3 или 4 Хочу от них избавиться. В одной старой теме на форуме предлагается вариант: добавить в robots.txt: Disallow: /*?page=1 Так как тема развития не получила, к тому же она довольно старая хочу узнать правильно ли будет так сделать? Только указать не page=1, а Disallow: /*?page=2 Disallow: /*?page=3 Disallow: /*?page=4 если это неправильный ход, то как прави