爬虫爬出的结果输出到 csv 文件中,打开发现汉字显示为乱码,如何解决?

2017-09-07 22:40:21 +08:00
 saximi

32 位 WINDOWS7,PYTHON3 环境下。用这样的命令将爬到的结果输出到 CSV 文件: scrapy crawl 爬虫名 -o result.csv

这个文件用 EDITPLUS 或写字板打开都能正常显示其中的汉字,但是直接双击 CSV 文件用 EXCEL 打开时其中的汉字却都是乱码,请问这个要如何解决呢?感谢指点!

9853 次点击
所在节点    Python
24 条回复
saximi
2017-09-08 21:41:35 +08:00
@bestkayle PYTHON3 下好像就不能用 sys.setdefaultencoding('utf-8')了
expkzb
2017-09-09 10:10:33 +08:00
@saximi iconv -f utf-8 -t gbk yourfile > your_gbk_file
Heron
2017-09-11 00:27:05 +08:00
貌似简单的方法就是记事本打开以后,在另存成 utf-8 就可以。
goofool
2017-09-11 14:58:13 +08:00
excel 会根据有没有 BOM 确定文件是不是 UTF8 编码,否则它假设内容使用 windows codepage 编码。
这种情况只需要重新保存文本为 utf-8 with bom 就没有乱码了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/389043

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX