有没有这样一个软件,可以把某个网站的特定目录给爬一边,然后down下来打包成单个/多个HTML或者一个PDF?
比如我要将整本《Learn Python The Hard Way》
http://learnpythonthehardway.org/book/ 给down下来,以后可以离线阅读。
我知道也用过某些个软件可以把整个网站跑一边根据图片/JS/CSS什么分目录下载的,但是效果不是很理想。
也想过用InstaPaper这种标记阅读类工具,但是这样的话,不如我手工把每个页面开一边保存个PDF算了,作为半个码农,这么低效率的方法是绝对无法接受的!!!
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
https://www.v2ex.com/t/59267
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.