有没有用过scrapy的啊,来指导下。

2013-02-05 16:35:23 +08:00
 jazdelu
start_urls=['http://dsb.66wz.com/','http://wzwb.66wz.com/','http://wzed.66wz.com/','http://wzrb.66wz.com/',]

allowed_domains=['dsb.66wz.com','wzed.66wz.com','wzrb.66wz.com','wzwb.66wz.com']

rules = (Rule(SgmlLinkExtractor(allow=r'html/\d+-\d+/\d+/content_\d+.htm'),callback='parse_news'),)


以上是我爬虫的部分代码
为什么1这个网页我不爬不到但是2就能爬到?
是不是这新闻网设置了什么robot.txt?



1.http://wzed.66wz.com/html/2012-12/12/content_1356694.htm


2.http://wzed.66wz.com/html/2013-02/05/content_1391565.htm
2457 次点击
所在节点    问与答
0 条回复

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/59866

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX