wget的什么命令可以只下载网页的背景大图?

2013-12-12 10:10:09 +08:00
 ccyborg
http://www.australia.com/
http://cairnstours.net.au/
http://www.cairns-greatbarrierreef.org.au/
想下载以上这些网站的背景图片,现在是在Chrome开发者工具中一张张下载,很麻烦,在网上Google了一下,据说wget可以只下载网站的指定目录,尝试了一下以下的网址,但返回的结果都是“Error 403 Forbidden”,请问有没有什么方法可以批量下载这些网站的背景图片?
http://www.australia.com/contentimages/
http://cairnstours.net.au/wp-content/uploads/
http://www.cairns-greatbarrierreef.org.au/media/
3290 次点击
所在节点    问与答
2 条回复
iptux
2013-12-12 11:26:08 +08:00
wget --mirror --accept=.png,.jpg,.gif

网站一般禁止列目录了。。。
lijinma
2013-12-12 13:32:29 +08:00
给你一个我用的方法,使用的工具 httrack

你可以根据不同平台下载工具:http://www.httrack.com/page/2/en/index.html

我是mac平台:

$ sudo port install httrack

$ httrack

按照wizard进行

最后选择:1 Mirror Web Site(s)

然后整站就被download下来了;

完全是整站噢;

非常方便!



这是我刚才下载的: http://www.australia.com/

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/92805

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX