结巴分词的那个 dict.txt 是用什么工具训练出来的呢?

2014-01-15 14:12:39 +08:00
 Livid
文件里包含 3 列:

词 词频 词性

貌似在 GitHub 上没有提供这个 dict.txt 的训练工具
13134 次点击
所在节点    Python
5 条回复
ryon
2014-01-15 14:17:18 +08:00
同关注,希望有人提供个解决方案
eric
2014-01-15 14:23:13 +08:00
我以前做自然语言处理项目的时候是用的北大的人民日报的语料库,可以在 http://www.icl.pku.edu.cn/icl_res/ 申请下载。

这个语料库已经完成了词语切分和语料标注,简单写个脚本跑一下就能生成 dict.txt 的那个格式了。
chundong
2014-01-15 14:44:33 +08:00
jieba项目上面有说明:
> 来源主要有两个,一个是网上能下载到的1998人民日报的切分语料还有一个msr的切分语料。另一个是我自己收集的一些txt小说,用ictclas把他们切分(可能有一定误差)。 然后用python脚本统计词频。

https://github.com/fxsjy/jieba/issues/7

词库的话,搜狗有一个互联网词库, http://www.sogou.com/labs/dl/w.html
fanzeyi
2014-01-15 15:34:05 +08:00
不知道结巴用的什么,我知道一份 Google 的..

http://storage.googleapis.com/books/ngrams/books/datasetsv2.html
ling0322
2014-01-16 12:34:23 +08:00
可以找一些很大的小说合集,或者手写一个爬虫爬新闻或者博客,然后用Stanford Word Segmenter去分词,再用Stanford POS Tagger去标注词性。这两个软件都是开源的。
最后再写一个脚本统计每个词对应的词性出现的次数就OK了

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/97099

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX