在Apache Spark中有input_file_name函数,我用它将新列添加到Dataset中,并将其与当前正在处理的文件的名称相加。UDF从Spark SQL中的路径中仅提取文件名
问题是我想以某种方式定制此函数以仅返回文件名,在S3上省略它的完整路径。
现在,我在第二步骤中使用地图功能做更换的路径:
val initialDs = spark.sqlContext.read
.option("dateFormat", conf.dateFormat)
.schema(conf.schema)
.csv(conf.path).withColumn("input_file_name", input_file_name)
...
...
def fromFile(fileName: String): String = {
val baseName: String = FilenameUtils.getBaseName(fileName)
val tmpFileName: String = baseName.substring(0, baseName.length - 8) //here is magic conversion ;)
this.valueOf(tmpFileName)
}
但我想使用类似
val initialDs = spark.sqlContext.read
.option("dateFormat", conf.dateFormat)
.schema(conf.schema)
.csv(conf.path).withColumn("input_file_name", **customized_input_file_name_function**)
'.withColumn( “input_file_name”,get_only_file_name(input_file_name))'。这里'get_only_file_name'是udf。 – mrsrinivas