求教,根据现成的 url 清单下载网页的最好方法是?

234 天前
 werwer
能够模拟登录状态,尽可能的高效且能避免被 ban
804 次点击
所在节点    问与答
6 条回复
cutecore
234 天前
firefox 有两个插件: "Open Multiple URLs" 和 "SingleFile | 将完整的页面保存到一个 HTML 文件中" 搭配着用可以
dallaslu
234 天前
wget
tool2d
234 天前
我以前用浏览器插件做远程调用实现过。

wget/curl 这种 ssl 指纹都不一样。还是 chrome 主流的指纹,比较不容易进黑名单。当然也需要控制访问频率。
gdfsjunjun
234 天前
不知道你是不是指 Save Page WE 这个 Chrome 扩展。
我觉得很好用,直接将页面保存为单个文件。
werwer
233 天前
@gdfsjunjun 我是指根据已有的 url 大批量地下载网页。另外,你所说的这个扩展和直接 ctrl+s 然后选择格式为 mhtml ,有什么区别吗?
gdfsjunjun
233 天前
@werwer 扩展会直接把图片转成 base64 ,你直接保存存的是图片链接,有可能以后会失效。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1030226

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX