后的代码插入新列我怎么可以处理数据,并使用数据框
val df = spark.sql(sql_query)
df.show()
我得到一个架构
// +--------+-------+
// | id_card| year|
// +--------+-------+
// |001_1976| 2017 |
// |015_1983| 2012 |
// |078_1963| 2011 |
// +--------+-------+
那么我想"work_year"
(year - id_card.substring(4,8))
我有一个名为新列阅读源代码有关withColumn()
我注意到的withColumn
列PARAM必须org.apache.spark.sqlColumn
,而不是简单的字符串,它确实让我感到不安。
spark version: Spark 2.1.0
scala version: 2.12.1
jdk version: 1.8
谢谢!我会尝试。 – Pulga
关于Java版本是什么吗? – Pulga
java版本应该是不相关的。但我会建议ATLEAST的Java 7+ –