乱码的♂哲学♀教育

2015-08-27 14:47:04 +08:00
 aragakiiyui
我不知道岁月给我们的爱为什么是那样的苍白,它停在了今天,让我真的无奈。。。
这是一个令人忧伤的 bug ,为什么我的爬虫爬京东的时候,同一个关键词,大部分时间都是正常运作的,但是有时候结果却是乱码,不知道是不是我代码的问题。
我是用 XPath+requests 来解析网页的,大家写爬虫有碰到过这种情况么?!求建议!
2702 次点击
所在节点    Python
6 条回复
kurtrossel
2015-08-27 15:17:52 +08:00
有点乱,别人可能看不到重点,整理一下

没有什么能阻挡那滔天的巨浪,它铺面而来,席卷了一切。。。
那是一个慵懒倦怠的午后,忧伤的程序员突然发现了他的宿命,他与京东的纠缠。隐形的巨兽匍匐在他面前,蓄势待发,他被巨兽的鼻息笼罩,却无力挣脱
他是一个直男,他用 XPath+requests 写爬虫解析网页,同一个关键词,有时返回的结果正常,有时却是乱码,大家是否也遇到过相同情况?有何解决办法?
kasp
2015-08-27 15:48:31 +08:00
LS 整理的真好。
wuling
2015-08-27 15:54:30 +08:00
奶茶东嘛,每爬那么 30 多次里总有个几次乱码,你懂的
aragakiiyui
2015-08-27 16:53:59 +08:00
@kurtrossel 我从未见过如此与我一般才华横溢之人(一 一+正义的眼神)。
aragakiiyui
2015-08-27 16:54:21 +08:00
@wuling 你也出现过这种情况么?!
RadishWind
2015-08-30 12:25:45 +08:00
换正则试试

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/216394

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX