Перейти к содержанию
Форум поддержки пользователей VamShop

Ошибка google_sitemap.php


Рекомендуемые сообщения

VaM делая этот скрипт появился повод для размышления если сео урл выключено в админке тоесть

SEARCH_ENGINE_FRIENDLY_URLS = false то все ссылки должны наверно выдаватся как: файл.пхп?<параметры>

но для всего где задано сео выводится оно(сео)... так должно быть или это у меня какой то баг?

и где ето нужно смотреть?

Ссылка на сообщение
Поделиться на другие сайты

уже поправил почти что б работало и не для сео но одна проблемка (описано в пред посте)

так как проверка какой символ ставить идет по SEARCH_ENGINE_FRIENDLY_URLS ;/

Ссылка на сообщение
Поделиться на другие сайты

Нужно просто все ссылки на товары прописать не руками добавляя в конец параметр ?language например, а используя функцию vam_href_link, тогда при включении seo url все ?, & в адресе будут менять на /

Ссылка на сообщение
Поделиться на другие сайты

разобрался можна потестить (тем у кого есть многояз сайты -) ) и выкинуть в релиз мб )

google_sitemap.php

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

при беглом осмотре ошибок не обнаружил, но все таки остается открытым вопрос

двойных ссылок. Если в магазине по умолчанию стоит язык RU, то

заход поисковика по ссылке

http://fimosha.ru/product_info.php?products_id=4

идентичен заходу по ссылке

http://fimosha.ru/product_info.php?products_id=4?language=ru

поэтому, наверно нет смысла их скармливать поисковику одновременно, тем более,

что я слышал это не очень то и хорошо иметь 2 разных ссылки на одну и ту же страницу

Кто что может сказать на этот счет?

разобрался можна потестить (тем у кого есть многояз сайты -) ) и выкинуть в релиз мб )

Ссылка на сообщение
Поделиться на другие сайты

Конечно не нужно лишний линк "скармливать".

Я могу сказать как сделано у меня. В админе есть параметр - генерить language= для языка по умолчанию иил нет. В зависимости от этого генерится или нет. Количество ссылок на товар, категории, инф.страницу, отзывы и т.п. конечно соответствует количеству языков.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

Андрей,

а это только у тебя такая фича есть или она по умолчанию имеется?

если по умолчанию - подскажи в каком меню ее смотреть?

Конечно не нужно лишний линк "скармливать".

Я могу сказать как сделано у меня. В админе есть параметр - генерить language= для языка по умолчанию иил нет. В зависимости от этого генерится или нет. Количество ссылок на товар, категории, инф.страницу, отзывы и т.п. конечно соответствует количеству языков.

Ссылка на сообщение
Поделиться на другие сайты

Андрей,

Это у всех, кто работает с моим sitemapXML в зене. Я завтра посмотрю местный sitemap и скажу что нужно сделать, вернее выложу подправленный.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

Андрей, я поправил google_sitemap.php от mosquito, теперь у меня генерятся ссылки только вида:

http://fimosha.ru/ХХХХХХ.html?language=en'>http://fimosha.ru/ХХХХХХ.html?language=en

http://fimosha.ru/ХХХХХХ.html?language=ru'>http://fimosha.ru/ХХХХХХ.html?language=ru

все бы хорошо, но любой поисковик может зайти без проблем по ссылке вида

http://fimosha.ru/ХХХХХХ.html

как мне запретить индексировать такие страницы поисковыми системами? (http://fimosha.ru/ХХХХХХ.html)

Андрей,

Это у всех, кто работает с моим sitemapXML в зене. Я завтра посмотрю местный sitemap и скажу что нужно сделать, вернее выложу подправленный.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

переиначу свой вопрос - можно ли запретить обходить поисковым роботам все страницы моего сайта за исключением тех,

что описаны в google_sitemap ?

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

Александр,

я все понимаю, но я не могу перечислять каждую страницу своего сайта, чтобы их запретить,

тем более, что у меня запрещены страницы в роботс.тхт которые не нужно обходить роботам, но

несмотря на это яндексовский робот нашел порядка 5000 страниц на моем сайт! пипец!

вопрос: а если у меня нужные страницы имеют сео урл, соответственно вид ххх.html,

и если я в роботс.тхт напишу

User-agent: *

Disallow: /*.php

это не помешает роботам просканировать страницы вида хххх.html ??

Ссылка на сообщение
Поделиться на другие сайты

К сожалению в robots.txt нельзя указать при каких параметрах не нужно индексировать страницу. Делать это нужно через мета тег robots.

Для Гугла можно использовать мета-тег canonical.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

Андрей, если честно то я ничего не понял,

что будет если написать вот так:

User-agent: *

Disallow: /*.php

К сожалению в robots.txt нельзя указать при каких параметрах не нужно индексировать страницу. Делать это нужно через мета тег robots.

Для Гугла можно использовать мета-тег canonical.

Ссылка на сообщение
Поделиться на другие сайты

Андрей Кириллов

Я конечно всё понимаю, но Вы ж без знания php да и основ, как прописывать robots.txt, что такое мета тэги и т.д. и т.п. ничего ведь не сделаете.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

Александр, о чем Вы говорите?

при чем тут php, основы, мета теги?

у меня был конкретный вопрос с конкретной проблемой - если знаете как помочь,

скажите пожалуйста

Андрей Кириллов

Я конечно всё понимаю, но Вы ж без знания php да и основ, как прописывать robots.txt, что такое мета тэги и т.д. и т.п. ничего ведь не сделаете.

Ссылка на сообщение
Поделиться на другие сайты
Андрей Кириллов

ну а Вы Александр, как живете с яндексом, он у ВАс ничего лишнего не индексирует?

Я не думаю, что такая проблема возникла только у меня,

у огромного количества народа стоит VAMSHOP,

может быть у меня не так написан Роботс.тхт или .htaccess или я не знаю что еще,

а может быть Вы неправильно понимаете мою проблему?

Ссылка на сообщение
Поделиться на другие сайты

Конечно есть лишние страницы, я ж с этим не спорю.

Я нормально живу.

Каждый просто сам решают, для чего ему нужен магазин, какие задачи он будет решать и как, универсальных подходов нет.

Ссылка на сообщение
Поделиться на другие сайты
×
×
  • Создать...