我想用scala来访问spark应用程序中的HIVE。 我的代码: val hiveLocation = "hdfs://master:9000/user/hive/warehouse"
val conf = new SparkConf().setAppName("SOME APP NAME").setMaster("local[*]").set("spark.sql.warehouse.dir
我有一个名为df的pyspark数据框。 ONE LINE EXAMPLE:
df.take(1)
[Row(data=u'2016-12-25',nome=u'Mauro',day_type="SUN")]
我有假期一天的清单: holydays=[u'2016-12-25',u'2016-12-08'....]
我想改用day_type为“HOLIDAY”如果“数据”是holyd