-2
我想用spark创建数据报告。 我想要做的概念如下。Spark,Scala - 从rdd映射输出
case class output(txt: String)
outputList: List[output] = ..
myrdd
.filter(..)
.map(
some processing
outputList ::= output(..)
)
// this is why I cannot just union rdd with rdd
anotherRdd.map(
...some processing...
val rdd = ..make rdd from rdd..
rddinrdd.map(
...some processing...
outputList ::= output(..)
)
)
// save it as text
..save outputList somehow..
我知道它不会因为outputList工作将被存储的所有输出之前保存的,有没有办法做到这一点?
很难理解的结果。你可以请教一下这段文字。你也可以举一个输入的例子和你想要达到的预期输出吗? – marios
为什么在'anotherRdd'中''处理''处理后''两个RDD' –