1
我正在编译与Spark-Scala包一起编译'TokenizerExample'时遇到问题。Spark Scala - TokenizerExample - Intellij错误
我有我的设置环境的IntelliJ,我能够成功编译其他火花Scala的例子,如NaiveBayes,余弦相似性等
但是当我加载“TokenizerExample”成的IntelliJ IDE,系统将显示错误在下面的说明行“无法解析这样的特征参考变换”消息:
val tokenized = tokenizer.transform(sentenceDataFrame)
val regexTokenized = regexTokenizer.transform(sentenceDataFrame)
我没有做任何编辑,我可以观察到的问题是与变换方法。你能帮我解决这个问题吗?感谢您的支持。
谢谢!