如何打包某个网站的某个目录内所有页面?

2013-01-30 15:00:33 +08:00
 66beta
有没有这样一个软件,可以把某个网站的特定目录给爬一边,然后down下来打包成单个/多个HTML或者一个PDF?

比如我要将整本《Learn Python The Hard Way》http://learnpythonthehardway.org/book/ 给down下来,以后可以离线阅读。

我知道也用过某些个软件可以把整个网站跑一边根据图片/JS/CSS什么分目录下载的,但是效果不是很理想。

也想过用InstaPaper这种标记阅读类工具,但是这样的话,不如我手工把每个页面开一边保存个PDF算了,作为半个码农,这么低效率的方法是绝对无法接受的!!!
3196 次点击
所在节点    问与答
5 条回复
hanai
2013-01-30 15:10:56 +08:00
这样?
wget -r -p -np -k http://learnpythonthehardway.org/book/
qiayue
2013-01-30 16:15:48 +08:00
搜索“网站整站下载器”
Muninn
2013-01-30 17:28:46 +08:00
在linux下很简单 见一楼 我每次都是到vps上这么干
66beta
2013-01-31 12:04:34 +08:00
@hanai @Muninn 记得以前在ubuntu下弄过,我再去试试
FallenMax
2013-01-31 13:21:23 +08:00
idm 小说下载阅读器

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/59267

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX