**DF1** **DF2** **output_DF**
120 D A 120 null A
120 E B 120 null B
125 F C 120 null C
D 120 D D
E 120 E E
F 120 null F
G 120 null G
H 120 null H
125 null A
125 null B
125 null C
125 null D
125 null E
125 F F
125 null G
125 null H
从数据帧1和数据帧2中需要获取spark-shell中的最终输出数据帧。 其中A,B,C,D,E,F采用日期格式(yyyy-MM-dd)& 120,125是有成千上万个ticket_id的ticket_id列。 我刚刚在这里提取了一个。如何使用scala获得此信息
您也可以查看'df.join()'函数和可能''df.na.fill()'。 – Shaido
请您详细说明一下... !! – maduri
[加入密钥上的Spark数据帧]的可能重复(https://stackoverflow.com/questions/40343625/joining-spark-dataframes-on-the-key) – Harald