有哪些软件可以把网站整站下载下来?

2018-05-26 11:52:49 +08:00
 bigmama

经常看到一些很漂亮的网站,想把他的前端下载下来研究研究,以前用过一款软件可以把网站所有 css、img、js 所有元素下载到同一目录或者网站原有目录。。

有啥其他好用的软件吗?

10018 次点击
所在节点    分享发现
14 条回复
paloalto
2018-05-26 12:38:27 +08:00
浏览器一般都有个「 Save as 」的功能,好像也叫「右键另存为」。
另外,只是学习代码的话,其实不用存到本地,chrome 浏览器的 developers tools 功能更强大一些。
yukiww233
2018-05-26 12:55:05 +08:00
整站下载的话 httrack
很好用 而且还在更新
May725
2018-05-26 13:16:29 +08:00
浏览器直接 ctrl+s
BFDZ
2018-05-26 13:39:55 +08:00
windows 用 IDM
linux 用 wget
iConnect
2018-05-26 15:44:04 +08:00
动态加载的网站,很难爬的,完全加载需要自己定制爬虫策略
loading
2018-05-26 15:46:43 +08:00
webzip,老牌子了。
Aug
2018-05-26 16:17:04 +08:00
linux 的 wget 了解一下,```wget -T 5 -t 10 -Q 500m -nH -r -E -l inf -k -p -np```一条命令搞定,静态网站适用,曾经试用过 windows 的各种软件,在预期内,没有比这个好的。希望能帮到你,`号内的是命令。
Aug
2018-05-26 16:17:34 +08:00
@Aug 用过的都说好
429463267
2018-05-26 19:18:20 +08:00
wget 工具,我用了很久,镜像网站的神器,支持 win、linux,非常强大。。。
alvin666
2018-05-26 20:52:40 +08:00
win httrack,二楼也推荐的,之前校内论坛被领导搞了,花了几天把除了图片的东西拖了下来,专业的下载全站的软件,能设置的地方很多,比如断点续传,链接深度,下载附件类型,附件大小过滤等等,太好用了
Pyjamas
2018-05-26 20:53:36 +08:00
貌似是 wget --mirror -k
cy97cool
2018-05-26 21:02:03 +08:00
借楼同问有没有 chrome headless 保存单个页面
最好直接跑个 Docker 容器,传入 URL、cookie,和访问规则(例如以多快的速度滚动鼠标到页面底部,点击哪些按钮),传出一个 zip 包

换个说法 印象笔记的剪藏扩展可不可以自动化调用

如果有的话保存知乎等网站就方便多了
PerFectTime
2018-05-27 00:04:58 +08:00
Offline Explorer 了解一下
xftsoft
2020-07-12 11:23:43 +08:00
小飞兔整站下载了解下

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/457941

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX