有没有工具可以获取整个网站的网页?

2013-03-28 20:11:37 +08:00
 wwqgtxx
大家都知道progit的官方网站一直被gfw,git-scm.com必须翻墙才能上。
知道progit的文档可以使用ruby编译,方法在 https://github.com/progit/progit ,但还是想直接从git-scm官网抓取下载。
Firefox只能一个个网页的另存为,太麻烦,有一次性搞定的工具么?(要支持代理呀!)
大家可以搞定么?
2444 次点击
所在节点    程序员
21 条回复
binux
2013-03-28 20:12:53 +08:00
wget
wwqgtxx
2013-03-28 20:18:10 +08:00
@binux 不光要内容,还要图片css js的东西才能显示正常。而且是要整个网站呀。
ehaagwlke
2013-03-28 20:19:43 +08:00
有个东西叫 整站下载器。供你参考。
alexrezit
2013-03-28 20:20:32 +08:00
wwqgtxx
2013-03-28 20:27:48 +08:00
@ehaagwlke 谢谢,顺便推荐一个具体的版本吧,网上版本太多,不知道哪个好,谢谢
Mrlee
2013-03-28 20:30:13 +08:00
推荐楼主搜索一下

httrack
kqz901002
2013-03-28 20:30:20 +08:00
@wwqgtxx wget有整站拷贝成镜像的命令~~
linsk
2013-03-28 20:33:06 +08:00
http://git.gitcafe.com/book

虽然不是回答你的问题
wwqgtxx
2013-03-28 20:35:56 +08:00
@kqz901002 请指点一下好么
@Mrlee 谢谢,超级好用的工具
@alexrezit 可以具体一些么?
kqz901002
2013-03-28 20:37:04 +08:00
wget -r -p -np -k http://xxx.com/abc/
kqz901002
2013-03-28 20:44:05 +08:00
wwqgtxx
2013-03-28 20:47:05 +08:00
@linsk nslookup了一下,原来是一个架设在linode上的反向代理。

@kqz901002 实验了,可用,谢谢
RelativeLayout
2013-03-28 21:20:09 +08:00
sitesucker
linsk
2013-03-29 00:01:58 +08:00
@wwqgtxx 是的。
kopp123
2013-03-29 14:06:22 +08:00
迅雷 下载 ok 。
aisensiy
2013-03-29 14:13:42 +08:00
1L 就是正解
largepuma
2013-03-29 14:49:41 +08:00
wget -m "url"
iZr
2013-03-29 14:50:55 +08:00
@kqz901002 mark 回去test test
nsa
2013-03-29 14:51:49 +08:00
IntelliTamper,呵呵
kilinmitai
2013-03-29 16:11:53 +08:00
wget
windows的话有webzip这个软件可以用,有界面

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/64351

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX