2016-04-24 72 views
0

spark创建的数据帧,试图将它传递给spark.r如何将Spark Spark Scala DataFrame绑定到zeppelin的sparkR?

创建成功创建数据框的结合z

%spark 
z.put("myDF", myDF) 

和spark.r未能获得它:

%spark.r 
z.get("myDF") 

我在哪里得到

<simpleError in eval(expr, envir, enclos): could not find function "z.get"> 

如何获得spark中创建的DFspark.r

+0

您使用的是飞利浦的回购?官方齐柏林飞艇回购协议仍不支持口译员。现在有一段时间挂起的请求。我甚至不确定这个[repo](https://github.com/elbamos/Zeppelin-With-R/tree/rinterpreter)是否支持绑定。 – eliasah

+0

使用标准回购与'-Pr' – Jas

+0

好的。你可以尝试以下方法:'.z.get(...)'在'z'前面加一个'.'作为r解释器吗?通常这应该工作 – eliasah

回答

2

ZeppelinContext的使用与sparkr解释不同的一点:

你需要的Z为sparkr解释前用.使用.z.get(...)。例如:

%spark.r 
.z.get("myDF")