0
我在火花阶新,并希望找到最大的工资在各部门斯卡拉 - GROUPBY和马克斯在对RDD
Dept,Salary
Dept1,1000
Dept2,2000
Dept1,2500
Dept2,1500
Dept1,1700
Dept2,2800
我实现下面的代码
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object MaxSalary {
val sc = new SparkContext(new SparkConf().setAppName("Max Salary").setMaster("local[2]"))
case class Dept(dept_name : String, Salary : Int)
val data = sc.textFile("file:///home/user/Documents/dept.txt").map(_.split(","))
val recs = data.map(r => (r(0), Dept(r(0), r(1).toInt)))
val a = recs.max()???????
})
}
抱住如何实现group by和max函数。我正在使用RDD对。
感谢
得到错误'值TODS不是org.apache.spark.rdd.RDD [MaxSalary.Dept]' – Ajay
你用进口spark.implicits._ –
没有成员..我是否需要写因为它返回错误'找不到:value sqlContext' – Ajay