小弟刚在学scrapy。参考了官方文档照着它写了一段抓取代码。可以抓取到内容,但在使用scrapy crawl dmoz -o items.json 命令将爬的东西保存成json时生成的文件却只有一些空的[],这是什么原因,求大牛help!
import scrapy
from scrapy.selector import Selector
from tutorial.items import DmozItem
class DmozSpider(scrapy.spider.Spider):
name = "dmoz"
allowed_domains = ["dmoz.org"]
start_urls = [
"http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
"http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
]
def parse(self, response):
sel = Selector(response)
sites = sel.xpath('//ul[@class="directory-url"]/li')
items = []
for sel in sites:
item = DmozItem()
item['title'] = sel.xpath('a/text()').extract()
item['link'] = sel.xpath('a/@href').extract()
item['desc'] = sel.xpath('text()').re('-\s[^\n]*\\r')
items.append(item)
return items
1
mahone3297 2015-05-11 23:12:46 +08:00
我看到例子是,parse最后是 yield item,不是return。。。
|
2
sugusor OP @mahone3297 我一开始用的是yield,好像也不行。
|
3
mahone3297 2015-05-11 23:26:49 +08:00
那。。。你log下看看。。。比如,在parse函数里
`self.log("debug info url = " % response.url)` 然后,你可以用scrapy shell 看看你的 xpath是否正确,是否找的到html tag |
4
Gonster 2015-05-12 01:01:10 +08:00
话说 def parse下面的缩进是帖子忘写了吗
|
6
sugusor OP @mahone3297 额,xpath好像都是对的,因为我把抓的内容直接显示在命令行时内容都在,但把它们导出到json却只有一些[],具体内容都没有导出来。
|
7
sugusor OP @mahone3297 我试了把它们导出成'xml', 'jl', 'json', 'jsonlines', 'csv',结果只有csv文件中有数据,其他的都没有。而且csv中的文件也好像也有错误,用文本格式打开时能显示desc属性的信息,但我用libreoffice打开时却只有title和link属性有内容。
|
8
mahone3297 2015-05-12 09:46:44 +08:00
不一般的怪异。。。我最近也在学,都ok。。。我也不知道你什么情况了。。。
|
9
sugusor OP @mahone3297 我在想是不是我安装的不对,我是按照那个官方指南安装的,但是安装的时候它好像忽略了好多东西。。
|
10
sugusor OP @mahone3297 还有我是ubuntu下安装的。。。是不是有什么要注意的地方
|
11
mahone3297 2015-05-12 11:27:29 +08:00
我也是ubuntu下安装的
先安装一些依赖 apt-get install python-pip apt-get install python2.7-dev apt-get install libxml2-dev apt-get install libxslt1-dev 然后安装scrapy pip install scrapy |
12
sunchen 2015-05-12 11:57:29 +08:00
spider yield item,然后检查下你的pipeline
|
13
sugusor OP @sunchen 我的pipeline就是官方自己生成的,我并没有改过它。还有那个spider yield item命令具体该怎么用啊,我在项目下输入它说没有spider这个命令。。
|
14
sugusor OP @mahone3297 我按照官方文档http://scrapy-chs.readthedocs.org/zh_CN/latest/topics/ubuntu.html#topics-ubuntu 这个安装的,有没有问题?
|
15
mahone3297 2015-05-12 13:19:43 +08:00
@sugusor 他的意思是说,在spider的parse函数了,yield item,而不是return。。。也就是我前面说过的。。。
|
16
sugusor OP @mahone3297 我发现libxlst1-dev我的安装中没有包括,但我现在装好后好像还是没什么变化
|
17
mahone3297 2015-05-12 14:07:43 +08:00
@sugusor 应该没问题吧。。。
|
18
zenxds 2015-05-12 14:17:55 +08:00
yield 单个item试试
|
20
beibeijia 2015-05-12 21:01:49 +08:00
https://github.com/scrapy/dirbot
这是官网的那个例子 你先去下载运行一遍试试 我这边可以正常输出 如果测试没问题就对着这个检查一遍自己的代码 如果有问题的话 重装一遍scrapy 再有问题的话 我只能说呵呵了 你得自己看着办。。。 |
21
sunchen 2015-05-12 22:03:51 +08:00
@sugusor 把parse方法改成yield单条DmozItem,如果你想一个parse方法中输出多条item,直接多次yield 就行了, 然后把你的pipeline代码发上来
|
22
sugusor OP @sunchen 我的pipeline代码是这样的
# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html class TutorialPipeline(object): def process_item(self, item, spider): return item |
26
beibeijia 2015-05-13 18:21:04 +08:00
@sugusor pip uninstall scrapy 然后再安装一遍 我刚装的时候也遇到测试问题 这样重新安装了一遍就ok了 如果不行那就得把依赖包全给卸了重来 唉 遇到这种奇葩问题反正就是折腾 你自己试试吧。
|