2017-03-15 138 views
0

在Scala IDE中创建了一个Spark程序。抛出一个错误,当我尝试执行Spark/ScalaIDE - 错误:无法找到或加载主类

package sidSparkPackage 

import org.apache.spark.SparkConf 
import org.apache.spark.SparkContext 

object firstSparkProgram { 
def main(args: Array[String]): Unit = { 

val conf = new SparkConf().setMaster("local").setAppName("My First Spark Program") 

val sc = new SparkContext(conf) 

val rdd = sc.parallelize(List(1,2,3)) 

//rdd.first() 

println("Executed Successfully!!!!")  
} 
} 

错误:

Error: Could not find or load main class 

Here is the screenshot

+0

请将您的代码发布为文字,而不是图片,因为图片未在SO – radumanolescu

+0

上托管您如何启动您的应用程序? – FaigB

回答

0

我猜它是与您的构建配置。没有进一步的细节很难说。

尝试在项目构建配置中指定您的主类。

相关问题