0
在spark
创建的数据帧,试图将它传递给spark.r
如何将Spark Spark Scala DataFrame绑定到zeppelin的sparkR?
创建成功创建数据框的结合z
:
%spark
z.put("myDF", myDF)
和spark.r未能获得它:
%spark.r
z.get("myDF")
我在哪里得到
<simpleError in eval(expr, envir, enclos): could not find function "z.get">
如何获得spark
中创建的DF
spark.r
?
您使用的是飞利浦的回购?官方齐柏林飞艇回购协议仍不支持口译员。现在有一段时间挂起的请求。我甚至不确定这个[repo](https://github.com/elbamos/Zeppelin-With-R/tree/rinterpreter)是否支持绑定。 – eliasah
使用标准回购与'-Pr' – Jas
好的。你可以尝试以下方法:'.z.get(...)'在'z'前面加一个'.'作为r解释器吗?通常这应该工作 – eliasah