我有以下内容输入文件foo.txt
:斯卡拉 - 星火(version1.5.2)Dataframes分裂错误
c1|c2|c3|c4|c5|c6|c7|c8|
00| |1.0|1.0|9|27.0|0||
01|2|3.0|4.0|1|10.0|1|1|
我想将它转换成一个Dataframe
执行一些Sql
查询:
var text = sc.textFile("foo.txt")
var header = text.first()
var rdd = text.filter(row => row != header)
case class Data(c1: String, c2: String, c3: String, c4: String, c5: String, c6: String, c7: String, c8: String)
直到此时一切正常,问题就来了下一句:
var df = rdd.map(_.split("\\|")).map(p => Data(p(0), p(1), p(2), p(3), p(4), p(5), p(6), p(7))).toDF()
如果我尝试打印df
与df.show
,我得到一个错误信息:
scala> df.show()
java.lang.ArrayIndexOutOfBoundsException: 7
我知道错误可能是由于拆分句子。我也尝试使用下面的语法分裂foo.txt
:
var df = rdd.map(_.split("""|""")).map(p => Data(p(0), p(1), p(2), p(3), p(4), p(5), p(6), p(7))).toDF()
然后我得到的东西是这样的:
scala> df.show()
+------+---------+----------+-----------+-----+-----------+----------------+----------------+
| c1 | c2 | c3 | c4 | c5 | c6 | c7 | c8 |
+------+---------+----------+-----------+-----+-----------+----------------+----------------+
| 0| 0| || | || 1| .| 0|
| 0| 1| || 2| || 3| .| 0|
+------+---------+----------+-----------+-----+-----------+----------------+----------------+
因此,我的问题是我怎么能正确此文件传递到数据帧。
编辑:错误是在第一行由于||
字段没有中间空间。这种类型的字段定义取决于示例工作正常或崩溃。
我不能重现错误,在Spark 2.0上它工作正常。 (在df.show()上没有ArrayIndexOutOfBoundsException) – jamborta
对不起,我忘了评论它是在Spark 1.5.2上。我将编辑问题 – qwerty
您不能将文件重命名为'.csv',并直接将其读入'df'中? – pheeleeppoo