2017-07-27 82 views

回答

0

我建议你在Windows上使用IntelliJ IDEA开发Spark。创建一个SBT项目,您可以在其上复制构建文件上的下一个代码,它将为您下载所有的依赖关系。

version := "1.0" 
scalaVersion := "2.10.6" 
// grading libraries 
libraryDependencies += "junit" % "junit" % "4.10" % "test" 

libraryDependencies ++= Seq(
    "org.apache.spark" %% "spark-core" % "1.6.3", 
    "org.apache.spark" %% "spark-sql" % "1.6.3", 
    "org.apache.spark" %% "spark-hive" % "1.6.3" 
) 

libraryDependencies ++= Seq(
    "org.apache.commons" % "commons-csv" % "1.4", 
    "joda-time" % "joda-time" % "2.9.9", 
    "com.univocity" % "univocity-parsers" % "1.5.1" 
) 
libraryDependencies +="com.databricks" %% "spark-csv" % "1.5.0" 

之后,创建一个scala对象,并开始开发。它主要用于Spark的本地开发。读取或写入文件时请注意路径。