将以下数据视为数据框。如果我确实计算了数据帧,那么它会给出6。我只想在东列不为空的地方对行进行计数?Spark DataFrame:只有在至少一列不为空的情况下计数行才有效?
Country id salary
Australia 64654 NULL
NULL NULL NULL
Italy 23694 28
England 45585 32
NULL NULL NULL
Japan NULL 10
将以下数据视为数据框。如果我确实计算了数据帧,那么它会给出6。我只想在东列不为空的地方对行进行计数?Spark DataFrame:只有在至少一列不为空的情况下计数行才有效?
Country id salary
Australia 64654 NULL
NULL NULL NULL
Italy 23694 28
England 45585 32
NULL NULL NULL
Japan NULL 10
如何:df.filter($"Country".isNotNull || $"id".isNotNull || $"salary".isNotNull).count()
实际上,列不固定,数据框可能有大约120列。我提到了更好理解的专栏 –
使用像下面将给出结果: -
select count(*) from
(select COALESCE(*) as x from table_name) tmp
where x is not null
实际上,列不固定,数据帧可有120列左右。我在那里提到了更好理解的列 –
嘿,所有,我已经使用'na'函数解决它。谢谢! –