support 447 Опубликовано 28 марта, 2019 Жалоба Share Опубликовано 28 марта, 2019 Например с помощью wget: wget -r -k -l 7 -p -E -nc -erobots=off --user-agent="Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/5З7.З6 (KHTML, like Gecko) Chrome/60.0.З112.11З Safari/5З7.36" domen.ru Ссылка на сообщение Поделиться на другие сайты
IVAN.Z 2 Опубликовано 29 марта, 2019 Жалоба Share Опубликовано 29 марта, 2019 А куда это писать? И почему нельзя использовать проги для скачивания сайта и в чем плюсы или минусы в кратце можно узнать? Ссылка на сообщение Поделиться на другие сайты
support 447 Опубликовано 29 марта, 2019 Автор Жалоба Share Опубликовано 29 марта, 2019 23 часа назад, support сказал: Например с помощью wget: wget -r -k -l 7 -p -E -nc -erobots=off --user-agent="Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/5З7.З6 (KHTML, like Gecko) Chrome/60.0.З112.11З Safari/5З7.36" domen.ru Это для линукса, в консоли команда выполняется. Зачем использовать порграммы какие-то, что-то скаивать, устанавливать. Если ужё всё готово и работает по умолчанию. Просто выкачивает указанный адрес и всё. Например когда Вы просто в браузере страницу сохраняете через Файл - Сохранить как, то браузер всё коверкает, коверкает код, складывает все css, js, img файлы при сохранении всё в кучу, очень неудобно. А wget выкачает всё как есть. В общем, это я больше для себя команду записал, что б не забыть. Если линуксом не пользуетесь, то смысла в ней нет. Ссылка на сообщение Поделиться на другие сайты
Рекомендуемые сообщения