support 447 Опубликовано 26 августа, 2008 Жалоба Share Опубликовано 26 августа, 2008 Если не нужна, её нужно убирать конечно. Но всё-таки не всем ведь не нужна, кому-то наоборот как раз очень даже полезна. Удали из шаблона списка товаров /templates/шаблон/module/product_listing: <p>{#text_sort#} <a href="{$LINK_sort_name_asc}">{#text_sort_name_asc#}</a> | <a href="{$LINK_sort_name_desc}">{#text_sort_name_desc#}</a> | <a href="{$LINK_sort_price_asc}">{#text_sort_price_asc#}</a> | <a href="{$LINK_sort_price_desc}">{#text_sort_price_desc#}</a></p><p>{#text_products_per_page#} <a href="{$LINK_PAGE}10">10</a>, <a href="{$LINK_PAGE}20">20</a>, <a href="{$LINK_PAGE}50">50</a>, <a href="{$LINK_PAGE}100">100</a></p>[/code] Ссылка на сообщение Поделиться на другие сайты
geval 3 Опубликовано 31 августа, 2008 Автор Жалоба Share Опубликовано 31 августа, 2008 в общем сделали мне htacess, может кому надо будет..чтобы удалить уже проиндексированные страницы сортировки.. RewriteEngine On RewriteBase / RewriteCond %{QUERY_STRING} ^.*sort=.*$ RewriteRule ^.*html.*$ http://sun-mag.ru/ [L] вот так начинается файл.. две беды правда- скажем заходим на страницу http://sun-mag.ru/shaniss.html?sort=price&direction=desc&on_page=10&page=4 делается редирект на главную страницу...и при этом ссылка остается такого вида уже...обрезанная http://sun-mag.ru/?sort=price&direction=desc&on_page=10&page=4 если же делать вместо главной страницы другую-то ошибка выдается.. я так понял причина тут такая- что в хтакцессе прописано-что файл manager.php дальше по условию обрезает страницу..и на выходе получается такое.. если же ставить в конце htaccess строки RewriteCond %{QUERY_STRING} ^.*sort=.*$ RewriteRule ^.*html.*$ http://sun-mag.ru/ [L] то редирект вообще не работает.. как решить эту проблему ? ( что только на главную можно редирект задать, и то что обрезает так..) Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 31 августа, 2008 Жалоба Share Опубликовано 31 августа, 2008 Я совсем в mod_rewrite ничего не понимаю, даже и не могу подсказать, если честно. Ссылка на сообщение Поделиться на другие сайты
Alex Zimov 0 Опубликовано 22 октября, 2008 Жалоба Share Опубликовано 22 октября, 2008 а что будет если в роботс прописать ? Disallow: /index.php/action/ Disallow: /products_new.php/action/ Disallow: /products_info.php/action/ Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 23 октября, 2008 Жалоба Share Опубликовано 23 октября, 2008 Нормально всё будет, по идее. Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 6 января, 2009 Жалоба Share Опубликовано 6 января, 2009 Ну а как определить то эту конкртеную часть, в этом же и проблема. Нужно как-то условие правильно составить и в /includes/header.php писать что-то вроде: if условие = тому-то тотэг nofollow/if[/code]А если попробовать создавать ссылку "сортировки" в таком виде:[color=navy]<a href="http://сама_ссылка.ru" rel="nofollow">текст ссылки</a>[/color] .Не знаю насколько это сложно и возможно ли вообще реализовать, но, судя по различным источникам, [b]rel="nofollow"[/b] "останавливает" Гугл. Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 6 января, 2009 Жалоба Share Опубликовано 6 января, 2009 А ты пробовал добавлять nofollow в шаблон списка товаров /templates/шаблон/module/product_listing, вот в этом куске: <p>{#text_sort#} <a href="{$LINK_sort_name_asc}">{#text_sort_name_asc#}</a> | <a href="{$LINK_sort_name_desc}">{#text_sort_name_desc#}</a> | <a href="{$LINK_sort_price_asc}">{#text_sort_price_asc#}</a> | <a href="{$LINK_sort_price_desc}">{#text_sort_price_desc#}</a></p><p>{#text_products_per_page#} <a href="{$LINK_PAGE}10">10</a>, <a href="{$LINK_PAGE}20">20</a>, <a href="{$LINK_PAGE}50">50</a>, <a href="{$LINK_PAGE}100">100</a></p>[/code]Вот это и есть код ссылок сортировка после href атрибуты можно и rel="nofollow" добавить, если ты говоришь, что поможет.Я просто не совсем в курсе, как правильно делать. Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 6 января, 2009 Жалоба Share Опубликовано 6 января, 2009 Да вот сделал <a href="{$LINK_sort_price_asc}" rel="nofollow">{#text_sort_price_asc#}</a> | <a href="{$LINK_sort_price_desc}" rel="nofollow">{#text_sort_price_desc#}</a>[/code]Ненужных страниц это не уберёт, зато надеюсь новых "ненужных" не сделает.Источник информации, например, здесь:http://noindex-nofollow.info/nofollow.htm Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 7 января, 2009 Жалоба Share Опубликовано 7 января, 2009 Понятно, ссылка что-то не открывается, пишет Internal Server Error Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 7 января, 2009 Жалоба Share Опубликовано 7 января, 2009 Исправил, извините. Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 8 января, 2009 Жалоба Share Опубликовано 8 января, 2009 Теперь работает, спасибо. Ссылка на сообщение Поделиться на другие сайты
Starichkov 0 Опубликовано 13 января, 2009 Жалоба Share Опубликовано 13 января, 2009 geval, дубли копий для ПС, это конечно не айс, но, в последнее время замечено, что Я борется с дублями, и это не так трагично для сео. Касаемо запрета перехода бота по линкам сортировки, для последующей индексации, с этого и надо было начинать, простая правка шаблона и все. Написали запрет для локальной ссылки, бот и не узнает никогда что есть динамический результат перехода, кроме как в случае если на результат применения такого фильтра не проставлена ссылка извне. ps. не очень понимаю, за что вас так заминусовали на серче :o. Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 15 января, 2009 Жалоба Share Опубликовано 15 января, 2009 Starichkov Написали запрет для локальной ссылки.... noindex - только для Яши, Гугл это игнорирует. Сейчас проверяю rel="nofollow"... Знаете что-то ещё? Поделитесь, пожалуйста. Ссылка на сообщение Поделиться на другие сайты
ABerezin 0 Опубликовано 15 января, 2009 Жалоба Share Опубликовано 15 января, 2009 Запрет для локальной ссылки проблем не решает. Всегда существует вероятность, что на "лишнюю" страницу найдётся незапрещенная ссылка. Например естественная. Поэтому в плюс к запрету индексации "лишних" страниц через noindex/rel="nofollow" нужно запрещать саму индексацию этих "лишних" страниц. Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 17 января, 2009 Жалоба Share Опубликовано 17 января, 2009 Всегда существует вероятность, что на "лишнюю" страницу найдётся незапрещенная ссылка... Наверное, но вероятность очень маленькая. И , перечитав ещё раз тему, я не нашёл как можно закрыть страницы типа /МАГАЗИН.com/ТОВАР.html?currency=USD&... ...?sort=price&... ...?direction=asc&... ...?language=ru&... Многократно перемножающие друг друга, т.е. "закрыть" нужно сортировки. На такие страницы не должно быть "естественной ссылки". Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 17 января, 2009 Жалоба Share Опубликовано 17 января, 2009 Попытаюсь закрыть при помощи rel="nofollow". На примере languages.php правильно ли я добавил в $languages_string .= ' <a href="' . vam_href_link(basename($PHP_SELF), 'language=' . $key.'&'.vam_get_all_get_params(array('language', 'currency')), $request_type) . '">' . $value['name'] . '</a> '; rel="nofollow". $languages_string .= ' <a href="' . vam_href_link(basename($PHP_SELF), 'language=' . $key.'&'.vam_get_all_get_params(array('language', 'currency')), $request_type) . ' rel="nofollow"">' . $value['name'] . '</a> '; Точки, запятые?... Всё работает, а в адресной строке .../index.php?language=ru%20rel= Спасибо. Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 17 января, 2009 Жалоба Share Опубликовано 17 января, 2009 Лучше наверное так: $languages_string .= ' <a href="' . vam_href_link(basename($PHP_SELF), 'language=' . $key.'&'.vam_get_all_get_params(array('language', 'currency')), $request_type) . '" rel="nofollow">' . $value['name'] . '</a> ';[/code] Ссылка на сообщение Поделиться на другие сайты
ABerezin 0 Опубликовано 17 января, 2009 Жалоба Share Опубликовано 17 января, 2009 Наверное, но вероятность очень маленькая. Ошибаетесь. Причём вероятность возрастает с увеличением популярности сайта. И , перечитав ещё раз тему, я не нашёл как можно закрыть страницы типа /МАГАЗИН.com/ТОВАР.html?currency=USD&... ...?sort=price&... ...?direction=asc&... ...?language=ru&... Многократно перемножающие друг друга, т.е. "закрыть" нужно сортировки. Закрывать нужно через мета-теги. На такие страницы не должно быть "естественной ссылки". Видимо ваш большой опыт позволяет делать такие умозаключения. Я же говорю - есть масса практических примеров. Впрочем я не настаиваю ;D Ссылка на сообщение Поделиться на другие сайты
Виталий Мишин 0 Опубликовано 17 января, 2009 Жалоба Share Опубликовано 17 января, 2009 Никаких "умозаключений". Я (с моим опытом) лишь хотел бы получить помощь в решении проблемы :). Извините. Ссылка на сообщение Поделиться на другие сайты
DHara 0 Опубликовано 30 марта, 2009 Жалоба Share Опубликовано 30 марта, 2009 Лично я считаю что по разному отсортированные страницы - для яндекса страницы разные, а для гугля и подавно. Но в обсуждении все таки поучаствую. Заставить поисковики не индексировать ссылки просто: Добавляем в файл .htaccess , после строки RewriteBase / строку RewriteRule ^sort/(.*)$ /$1 [L] затем в конец robots.txt Disallow: /sort/ То есть фактически для движка урл вида http://www.site.ru/sort/bolonskie_udochki.html?sort=name&direction=desc&filter_id=6&on_page=100 будет абсолютно тем же самым что и http://www.site.ru/bolonskie_udochki.html?sort=name&direction=desc&filter_id=6&on_page=100 , а вот поисковикам индексация страниц в каталоге /sort/ запрещена. Осталось только добавить /sort/ во все сортировочные ссылки в файлах default.php и product_listing.php . Убрать уже проиндексированные страницы сложнее, так как старые адреса, к сожалению, будут продолжать работать. Варианта 2. Самое надежное - выдавать ошибку 404 по всем адресам в которых содержатся параметры sort, direction, on_page или filter_id. Второй вариант - сделать так чтоб для ботов эти параметры были нерабочими. Например мы можем в файле application_top.php переписать эти параметры из $_GET клиенту в куки, и соответственно при обработке брать их уже не из $_GET, а из куков. Понятно что боты( поисковые ) никаких куков не принимают, и для них никаких сортировок или фильтраций существовать не будет, а одинаковые страницы они рано или поздно склеят. В таком подходе есть один существенный плюс: человек может единожды настроить как сортируются товары, и сколько их отображается на странице, и всегда будет видеть именно такую сортировку. В тех же магазинах, где важна пред установка собственной сортировки для каждой категории, можно просто задать время жизни куки в 1 секунду. Что то подобное можно проделать используя не куки а сессии. Впрочем, это только размышления - авось кто что умнее придумает. ::) Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 31 марта, 2009 Жалоба Share Опубликовано 31 марта, 2009 Спасибо за готовый пример. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 30 июля, 2009 Жалоба Share Опубликовано 30 июля, 2009 Может быть просто при включенном SEO в robots.txt прописать: Disallow: /*? Поскольку, локально при создании карты прогой GSiteClawler получаются страницы типа: http://www.bla-bla.ru/petrushka.html?action=........ http://www.bla-bla.ru/petrushka.html?q=........ http://www.bla-bla.ru/petrushka.html?sort=........ Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 30 июля, 2009 Жалоба Share Опубликовано 30 июля, 2009 Нет, нельзя, Вы ж запретите индексацию всех страниц такой строкой, если я правильно понимаю. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 30 июля, 2009 Жалоба Share Опубликовано 30 июля, 2009 Ну я этого и хочу, зачем мне показывать роботу дубликаты страниц (сортировку допустим)? Если у каждой категории и у каждого товара есть оригинальное SEO имя с расширением html Хотя конструкция не совсем верна. Тогда все таки, как убить эти страницы оставив при этом для роботов оригинальную страницу http://www.bla-bla.ru/petrushka.html Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 30 июля, 2009 Жалоба Share Опубликовано 30 июля, 2009 Вот тут я даже и не знаю, но есть сомнения, что если Вы такую строку добавите, то и карта сайта не поможет. Не знаю точно, как будет робот вести себя если в robots.txt всё запрещено, но есть карта сайта. Ссылка на сообщение Поделиться на другие сайты
Рекомендуемые сообщения