scrapy 数据输出成 json 文件是空的,这是什么问题

2015-05-11 23:00:14 +08:00
 sugusor

小弟刚在学scrapy。参考了官方文档照着它写了一段抓取代码。可以抓取到内容,但在使用scrapy crawl dmoz -o items.json 命令将爬的东西保存成json时生成的文件却只有一些空的[],这是什么原因,求大牛help!

import scrapy
from scrapy.selector import Selector

from tutorial.items import DmozItem

class DmozSpider(scrapy.spider.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
    "http://www.dmoz.org/Computers/Programming/Languages/Python/Books/",
    "http://www.dmoz.org/Computers/Programming/Languages/Python/Resources/"
    ]

    def parse(self, response):
    sel = Selector(response)
    sites = sel.xpath('//ul[@class="directory-url"]/li')
    items = []
    for sel in sites:
        item = DmozItem()
        item['title'] = sel.xpath('a/text()').extract()
        item['link'] = sel.xpath('a/@href').extract()
        item['desc'] = sel.xpath('text()').re('-\s[^\n]*\\r')
        items.append(item)
    return items
8034 次点击
所在节点    Python
26 条回复
mahone3297
2015-05-11 23:12:46 +08:00
我看到例子是,parse最后是 yield item,不是return。。。
sugusor
2015-05-11 23:14:39 +08:00
@mahone3297 我一开始用的是yield,好像也不行。
mahone3297
2015-05-11 23:26:49 +08:00
那。。。你log下看看。。。比如,在parse函数里
`self.log("debug info url = " % response.url)`
然后,你可以用scrapy shell 看看你的 xpath是否正确,是否找的到html tag
Gonster
2015-05-12 01:01:10 +08:00
话说 def parse下面的缩进是帖子忘写了吗
sugusor
2015-05-12 07:42:47 +08:00
@Gonster 好像是复制过来的时候缩进被吃掉了= =
sugusor
2015-05-12 08:02:55 +08:00
@mahone3297 额,xpath好像都是对的,因为我把抓的内容直接显示在命令行时内容都在,但把它们导出到json却只有一些[],具体内容都没有导出来。
sugusor
2015-05-12 08:26:17 +08:00
@mahone3297 我试了把它们导出成'xml', 'jl', 'json', 'jsonlines', 'csv',结果只有csv文件中有数据,其他的都没有。而且csv中的文件也好像也有错误,用文本格式打开时能显示desc属性的信息,但我用libreoffice打开时却只有title和link属性有内容。
mahone3297
2015-05-12 09:46:44 +08:00
不一般的怪异。。。我最近也在学,都ok。。。我也不知道你什么情况了。。。
sugusor
2015-05-12 10:33:37 +08:00
@mahone3297 我在想是不是我安装的不对,我是按照那个官方指南安装的,但是安装的时候它好像忽略了好多东西。。
sugusor
2015-05-12 10:34:31 +08:00
@mahone3297 还有我是ubuntu下安装的。。。是不是有什么要注意的地方
mahone3297
2015-05-12 11:27:29 +08:00
我也是ubuntu下安装的

先安装一些依赖
apt-get install python-pip
apt-get install python2.7-dev
apt-get install libxml2-dev
apt-get install libxslt1-dev

然后安装scrapy
pip install scrapy
sunchen
2015-05-12 11:57:29 +08:00
spider yield item,然后检查下你的pipeline
sugusor
2015-05-12 13:18:27 +08:00
@sunchen 我的pipeline就是官方自己生成的,我并没有改过它。还有那个spider yield item命令具体该怎么用啊,我在项目下输入它说没有spider这个命令。。
sugusor
2015-05-12 13:19:14 +08:00
@mahone3297 我按照官方文档http://scrapy-chs.readthedocs.org/zh_CN/latest/topics/ubuntu.html#topics-ubuntu 这个安装的,有没有问题?
mahone3297
2015-05-12 13:19:43 +08:00
@sugusor 他的意思是说,在spider的parse函数了,yield item,而不是return。。。也就是我前面说过的。。。
sugusor
2015-05-12 13:41:44 +08:00
@mahone3297 我发现libxlst1-dev我的安装中没有包括,但我现在装好后好像还是没什么变化
mahone3297
2015-05-12 14:07:43 +08:00
@sugusor 应该没问题吧。。。
zenxds
2015-05-12 14:17:55 +08:00
yield 单个item试试
sugusor
2015-05-12 14:26:02 +08:00
@zenxds 好像还是不行QAQ,只有csv格式可以,xml,json这些都不可以= =
beibeijia
2015-05-12 21:01:49 +08:00
https://github.com/scrapy/dirbot
这是官网的那个例子 你先去下载运行一遍试试 我这边可以正常输出 如果测试没问题就对着这个检查一遍自己的代码 如果有问题的话 重装一遍scrapy 再有问题的话 我只能说呵呵了 你得自己看着办。。。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/190294

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX