用 Python 3 写了个基于 selenium 的知乎关键词爬虫,可以爬钓鱼贴图片(各种爆照! 你懂得。。。)

2017-04-02 14:50:14 +08:00
 AnyISalIn

demo

地址在这里 zhihu_fun Github,求 star !!!!

。。。嗯,其实也可以爬其他方面的东西,但是目前只支持抓图片,其实这不是我的本意,我是想抓技术方面的东西的,但是我同事想要看这个,所以我就先抓这些图片了。。。Python 菜鸟一枚,代码写的很烂,还望各位大神多多指教

为什么要用 Selenium ?

新版知乎部分页面用 React 重写了,必须得加载 JS ,很多加载啥的都需要点击,所以我就用到了 Selenium

为什么不用知乎 API ?

单纯的想写一个爬虫而已

7428 次点击
所在节点    Python
33 条回复
AnyISalIn
2017-04-03 11:32:54 +08:00
@jyf 好像没有。。。
lonelygo
2017-04-03 13:07:19 +08:00
已 S&F
Vinceeeent
2017-04-03 13:33:41 +08:00
先 mark ,回去 star
coltguo
2017-04-03 16:30:47 +08:00
哎家里穷,不要发这样的照片
huage
2017-04-03 18:36:46 +08:00
实践出真知!
snoopygao
2017-04-03 20:53:10 +08:00
专门抓大腿的
AnyISalIn
2017-04-03 20:56:53 +08:00
@snoopygao 也可以抓其他东西啊,嘿嘿
jccg90
2017-04-04 00:35:05 +08:00
@akira 再配合某云服务的图片鉴黄 api ,就完美了。。。
c4fun
2017-04-04 00:43:58 +08:00
很好,已经 star
airbasic
2017-04-04 02:16:42 +08:00
道友想法很不错啊 我也在微博爬呢-。-
https://github.com/airbasic/weibo_album_spider
cpygui
2017-04-04 14:21:24 +08:00
改改我去爬 tumblr :)
wellhome
2017-04-06 15:51:24 +08:00
支持楼主
mingyun
2017-04-15 22:35:23 +08:00
感谢楼主,妹子到手了
@zhihaofans 感谢,哈哈

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/352146

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX