2016-10-22 214 views
1

我在apache-saprk 2.11的build.sbt文件中做了以下依赖项。IntelliJ Idea 2016.2.4无法解析符号spark_2.11

name := "Project1" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1" 

libraryDependencies ++= Seq(
"org.scala-lang" % "scala-compiler" % "2.11.8", 
"org.scala-lang" % "scala-reflect" % "2.11.8", 
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4", 
    "org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4" 
) 

但Intellij无法解决spark-core_2.11依赖性。我多次尝试,但不能成功。提前致谢。

+0

我刚刚复制并粘贴你的代码,对我来说工作正常! –

+0

我刚刚复制并粘贴了你的代码,对我来说工作正常!但如果它不适合你。尝试从外部先编译它,然后尝试在intellij中重新导入项目。这可能会解决你的问题! –

回答

0

我有同样的问题在2016年3月2日的IntelliJ几乎相同的斯卡拉/星火版本:

name := "some-project" 

version := "1.0" 

scalaVersion := "2.11.8" 

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0" 

为了得到它的工作,我不得不火花核心罐子手动添加到我的项目库,即:

  • 右键单击项目 - >打开模块设置
  • 在项目设置 - >库单击+,然后选择“Java”作为选项。
  • 浏览jar。我在我的常春藤高速缓存中发现它 - 我假设它已经到达那里,因为我之前已经从sbt控制台运行'更新'任务。
+0

''org.apache.spark“%%”spark-core“%”2.1.0“%”提供“'应该这样做。不要忘记将核心库标记为已提供(不需要包含,因为集群会将此库提供给您的程序) – Boern

相关问题