word2vec,分词后训练的词向量中依旧没有对应的词

2017-12-11 20:39:16 +08:00
 UN2758

我用结巴分词后用 gensim 训练得到词向量,训练模型时但是会报"word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '无鞍' not in vocabulary" "word '拍张' not in vocabulary" "word '拍张' not in vocabulary" 这样的错误,求助

4155 次点击
所在节点    Python
12 条回复
kaiju
2017-12-11 23:57:40 +08:00
首先确定你想找的词在真的出现过 (你确定分词会分出来“无鞍”这种词?)

其次 word2vec 会自动忽略出现过 n 次以下的词,n 好像等于 5 (“无鞍”这种词即使出现过,次数应该也很少)
rock_cloud
2017-12-12 00:03:04 +08:00
同意楼上所说,另外 Python 的话,注意编码问题。
hadoop
2017-12-12 00:41:10 +08:00
有个按词频低于多少就丢弃的参数
sadscv
2017-12-12 07:20:20 +08:00
你在分词之后转成 w2v 之前先对数据做一道预处理,如果是出现 out of vocabulary 你就直接生成一个同样尺寸的随机词向量。
如果在训练 w2v 的语料已经经过预处理,其中包括一个特殊的 UNK 单词,那你直接用 UNK 的向量来表示当前 OOV 的词也可以。
UN2758
2017-12-12 10:03:58 +08:00
@kaiju min_count wo 我设置的是 5,但是不在词表中的词出现 oov 提示了 67 次的也有,无鞍这词是 jieba 自己分出来的,我也很无语
UN2758
2017-12-12 10:07:19 +08:00
@rock_cloud 统一是 utf-8,在 ubuntu 上搞的,应该没有编码问题,但是"." "," "000" " "这样的也会提示 oov
UN2758
2017-12-12 10:08:37 +08:00
@hadoop 看 5 楼。。。。。
UN2758
2017-12-12 10:30:53 +08:00
@sadscv 我是设置的全 0 向量可以吗? UNK 是什么意思?
sadscv
2017-12-12 16:35:26 +08:00
@UN2758 UNK 就是指某个单词是未登录词,比如你预处理时,把所有低于5词频的单词替换成一个特殊标识'UNK',那么所有的罕见词在训练时就会被当作是同一个词来训练。当出现 oov 时,用这个特殊的未登录词向量来表示该词。
当然以上仅是一种简单粗暴的作法,与全随机或全0向量并无本质区别...
UN2758
2017-12-12 17:43:41 +08:00
@sadscv 哦,用 jieba 自己的词典分词感觉分出来的有些莫名其妙,是不是指定了用自己的词典,结巴自带的词典就失效了啊
zix
2017-12-12 19:38:08 +08:00
@UN2758 jieba 自己的词典不会失效。jieba 里面有新词发现功能,用的 HMM,默认是开启的,所以会去产生一些奇怪的结果出来,你可以把这个选项关掉,不过这样如果有词没有出现在词表里,就会分成一个一个字。

```
text = "blablabla..."
jieba.lcut(text, HMM=True) # 默认行为
jieba.lcut(text, HMM=False) # 关闭 HMM
```
searene
2017-12-12 21:36:14 +08:00
很有可能是编码的问题

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/413878

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX