2016-11-05 148 views
1

我试图用StanfordSegmenter来分割一段中文,但遇到了标题问题。我首先从http://nlp.stanford.edu/software/segmenter.shtml错误:无法找到或加载主类edu.stanford.nlp.ie.crf.CRFClassifier

下载斯坦福字分割器3.5.2版。然后我写了一个python:

import os 
os.environ['JAVAHOME'] = "C:/Program Files/Java/jdk1.8.0_102/bin/java.exe" 
from nltk.tokenize.stanford_segmenter import StanfordSegmenter 
segmenter = StanfordSegmenter(path_to_jar = "./stanford-segmenter-2015-12-09/stanford-segmenter-3.6.0.jar", 
          path_to_slf4j = "./stanford-segmenter-2015-12-09/slf4j-api.jar", 
          path_to_sihan_corpora_dict = "./stanford-segmenter-2015-12-09/data", 
          path_to_model = "./stanford-segmenter-2015-12-09/data/pku.gz", 
          path_to_dict = "./stanford-segmenter-2015-12-09/data/dict-chris6.ser.gz") 
sentence = u"这是斯坦福中文分词器测试" 
segmenter.segment(sentence) 

但我得到了以下错误:

Error: Could not find or load main class edu.stanford.nlp.ie.crf.CRFClassifier 

哪里我犯错误?谢谢。

回答

0

我觉得有一些执行错误。我也有类似的问题。 要解决的错误,只是尝试做

segmenter._stanford_jar = “./斯坦福 - 分割 - 2015年12月9日/斯坦福分割-3.6.0.jar”

如果这并未” t工作尝试给Segmenter._stanford_jar上的segementer jar文件的完整路径

相关问题