情况是这样的,由于用 PHP 做那 2000w 文字的词频提取耗时太长了,就 Google 了一下,发现 Hadoop 可以做词频分析,就在虚拟机上部署好了 Hadoop ,基本的 WordCount 跑通,然后就想着更改一下,使用 IK 来分词,下载了 IKAnalyzer2012_u6 资源包,把 IKAnalyzer2012_u6.jar 先后放在 /usr/local/hadoop-2.7.3/example 目录下、/usr/local/hadoop-2.7.3/bin 目录下、/usr/local/hadoop-2.7.3/lib 目录下,/usr/lib/jvm/java-8-openjdk-amd64/lib 目录下,结果,当我执行 ./bin/hadoop com.sun.tools.javac.Main ./example/ChineseWordCount.java 的时候,怎么来都给我下面这样的错误:
./example/ChineseWordCount.java:7: error: package org.wltea.analyzer.core does not exist
import org.wltea.analyzer.core.IKSegmenter;
^
./example/ChineseWordCount.java:8: error: package org.wltea.analyzer.core does not exist
import org.wltea.analyzer.core.Lexeme;
^
请 v2er 们指教一下。。
这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。
https://www.v2ex.com/t/303448
V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。
V2EX is a community of developers, designers and creative people.