Safer 0 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 а что делать с моделем Фильтры ? как зарыть его в роботсе ? Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 Через robots.txt вроде не запретить, если я правильно понял, о чём речь. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 а что делать с моделем Фильтры ? как зарыть его в роботсе ? <noindex><a rel="nofollow" href=".....">lkvjjsjdsdsd sdsdvds</a> <a rel="nofollow" href=".....">lkvjjsjdsdsd sdsdvds</a> <a rel="nofollow" href=".....">lkvjjsjdsdsd sdsdvds</a></noindex> Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 Это наверное нужно добавить в: /templates/шаблон/boxes/box_filters.html Если я правилно понимаю. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 Верно, в нем надо покопать.. Кстати, вопрос по ЧПУ с "новостями", "вопросами-ответами" не решен ещё? Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 В новостях можно указывать ЧПУ, а вот в faq нет. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 Вот вот... Как к ссылке "все новости" можно ЧПУ прикрутить? и по поводу "FAQ" - надо бы доделать.. и можно было бы запретить к индексации все кроме *.html Впрочем, на одном я так и сделал, о чем не жалею ни капли. Отдал поисковикам только по одной уникальной странице товаров, новостей, информации. Ещё не могу понять, надо ли обновлять версию скриптов? У меня стоит 1.53. А что сделано в следующих патчах - неизвестно. Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 Пока что никак, нет такого. Что сделано в новых версия известно. Вот - http://vamshop.ru/news.php, описание каждой новой версии. Если не сложно, Вы вот эти пожелания по поводу seo url в faq зарегистрируйте на vamshop.ru/bugs В следующей версии постараюсь доделать. Ссылка на сообщение Поделиться на другие сайты
Safer 0 Опубликовано 8 декабря, 2009 Жалоба Share Опубликовано 8 декабря, 2009 по поводу фильтров, разьве нельзя сделать так ? Disallow: /index.php/cat/c1_%FilterName%.html/q/ Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 9 декабря, 2009 Жалоба Share Опубликовано 9 декабря, 2009 Safer Не знаю, а будет работать такая запись в robots.txt !? Ссылка на сообщение Поделиться на другие сайты
Safer 0 Опубликовано 9 декабря, 2009 Жалоба Share Опубликовано 9 декабря, 2009 ну там же уже есть строка Disallow: /product_info.php/action/ значит и мой вариант должен работать, по идее... Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 9 декабря, 2009 Жалоба Share Опубликовано 9 декабря, 2009 Вообще конечно есть сомнение. Ссылка на сообщение Поделиться на другие сайты
Safer 0 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Добавил в роботс /index.php/cat/c1_%FilterName%.html/q/ вместо %FilterName% конечно нужно подставить название свой Категриии в которой есть фильтры. Итог: в гуглвебмастерв все ссылки /index.php/cat/c1_%FilterName%.html/q/* начали запрещаться к индексации. Т.е. работает! Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Так ведь руками все названия категорий нельзя прописать, это как вариант для конкретного магазина, но не для всех совет. Ссылка на сообщение Поделиться на другие сайты
Safer 0 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 так ведь можно при добавлении новой и её переименовании автоматически добавлять строчку в роботс Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Не знаю, наверное не совсем правильно, а как потом удалить не нужные строки, а если пользователь руками что-то добавил, нужно же искать нужную строку и удалять только её. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 могу выдать рабочий, проверенный на яндексе robots, где выдаются только *.html и ничего лишнего... Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Спасибо, прицепите к теме, если не сложно. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Хочу попасть в "примеры магазинов" (http://vamshop.ru/index.php) Файл в прицепе. И почему мета-тэги для главной страницы берутся из общих тэгов? robots.txt Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Отдельного раздела магазинов пока что нет, к сожалению. Meta title берётся из Админки - Разное - Информационные страницы. Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 11 декабря, 2009 Жалоба Share Опубликовано 11 декабря, 2009 Отдельного раздела магазинов пока что нет, к сожалению. Meta title берётся из Админки - Разное - Информационные страницы. Значит у меня скрипты глючат, поскольку для главной страницы почему то берутся тэги из основных настроек.. Я не про Title спрашиваю, а про desc и key Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 12 декабря, 2009 Жалоба Share Опубликовано 12 декабря, 2009 Вообще так сделано по умолчанию, meta description и meta keywords берутся из настроек в Админке - Настройки - Мета-тэги. А заголовок настраивается в информционных страницах. Ссылка на сообщение Поделиться на другие сайты
Makdak 0 Опубликовано 12 декабря, 2009 Жалоба Share Опубликовано 12 декабря, 2009 могу выдать рабочий, проверенный на яндексе robots, где выдаются только *.html и ничего лишнего... Посмотрел Ваш роботс. Хочу заметить что деректива host учитывается только яндексом. Поэтому все нужно дублировать для User-agent: Yandex Ссылка на сообщение Поделиться на другие сайты
solopov 0 Опубликовано 12 декабря, 2009 Жалоба Share Опубликовано 12 декабря, 2009 Понимая, что директиву host изобрели в Яндексе, не вижу причины для дублирования чего-то.. поскольку явно указал, что robots.txt мой проверен на Яндексе. К гуглу и остальным роботам могу предоставить за отдельную плату. ;D Ссылка на сообщение Поделиться на другие сайты
igor-ekb 0 Опубликовано 16 сентября, 2010 Жалоба Share Опубликовано 16 сентября, 2010 Здравствуйте! После индексации сайта обнаружил в Яндексе лишние станицы / дубликаты: 1) сортировка (разные варианты) - страницы с параметрами ....html?sort=name&direction=asc ....html?sort=name&direction=desc ....html?sort=price&direction=asc ....html?sort=price&direction=desc 2) Страницы "Написать отзыв" - .../product_reviews_write.php?products_id=4 3) версия для печати .../print_product_info.php?products_id=18 Как закрыть эти страницы от индексации в роботс тхт? И почему у других владельцев магазинов этого вопроса не возникло? Ссылка на сообщение Поделиться на другие сайты
Рекомендуемые сообщения