选择专栏中,我要实现以下的事情
比如我的Emp文件的(2个文件) 我只需要选择2例如EMPID和EmpName列,如果文件不具有EmpName它应选择EMPID数据帧星火数据框中使用情况
1)Emp1.csv(文件)
Empid EmpName Dept
1 ABC IS
2 XYZ COE
2)Emp.csv(文件)
Empid EmpName
1 ABC
2 XYZ
0的一列
代码试图到目前为止
scala> val SourceData = spark.read.format("com.databricks.spark.csv").option("inferSchema", "true").option("delimiter", ",").option("header", "true").load("/root/Empfiles/")
SourceData: org.apache.spark.sql.DataFrame = [Empid: string, EmpName: string ... 1 more field]
scala> SourceData.printSchema
root
|-- Empid: string (nullable = true)
|-- EmpName: string (nullable = true)
|-- Dept: string (nullable = true)
如果指定文件
scala> var FormatedColumn = SourceData.select(
| SourceData.columns.map {
| case "Empid" => SourceData("Empid").cast(IntegerType).as("empid")
| case "EmpName" => SourceData("EmpName").cast(StringType).as("empname")
| case "Dept" => SourceData("Dept").cast(StringType).as("dept")
| }: _*
|)
FormatedColumn: org.apache.spark.sql.DataFrame = [empid: int, empname: string ... 1 more field]
的所有列名,但我想只有特定的两列失败(如果列可显示它选择与此代码工作更改数据类型和列名称)
scala> var FormatedColumn = SourceData.select(
| SourceData.columns.map {
| case "Empid" => SourceData("Empid").cast(IntegerType).as("empid")
| case "EmpName" => SourceData("EmpName").cast(StringType).as("empname")
| }: _*
|)
scala.MatchError: Dept (of class java.lang.String)
at $anonfun$1.apply(<console>:32)
at $anonfun$1.apply(<console>:32)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:234)
at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:186)
at scala.collection.TraversableLike$class.map(TraversableLike.scala:234)
at scala.collection.mutable.ArrayOps$ofRef.map(ArrayOps.scala:186)
... 53 elided
它抛出一个MatchError,因为它无法在您的映射函数中找到匹配的大小写。如果您添加一个默认情况下它应该成功。您也可以首先在“Empid”和“EmpName”上运行选择,然后格式化后续列。 –
对不起,我是新来的默认情况下,斯卡拉我不想做任何事,所以我应该写什么? – Bhavesh