2016-04-24 10 views
0

erstellt einen Datenrahmen in spark, versucht es spark.rWie man SparkFalca DataFrame an sparkR im Zeppelin bindet? die Bindung Erstellen der erfolgreich erstellt Datenrahmen zu <code>z</code>

zu passieren:

%spark 
z.put("myDF", myDF) 

und von spark.r andernfalls es zu bekommen:

%spark.r 
z.get("myDF") 

wo bekomme ich

<simpleError in eval(expr, envir, enclos): could not find function "z.get"> 

Wie kann ich die DF erstellt in spark innerhalb spark.r bekommen?

+0

Welchen Repo Zeppelin verwenden Sie? Der offizielle Zeppelin Repo unterstützt den R-Interpreter immer noch nicht. Seit einiger Zeit hängt eine Pull-Anfrage. Ich bin mir nicht einmal sicher, dass dies [repo] (https://github.com/elbamos/Zeppelin-With-R/tree/rinterpreter) ebenfalls unterstützt. – eliasah

+0

Verwendung des Standard Repos mit '-Pr' – Jas

+0

Ok. Können Sie Folgendes versuchen: '.z.get (...)' mit einem '.' vor dem' z' für den r-Interpreter? normalerweise sollte dies funktionieren – eliasah

Antwort

2

Die Verwendung des ZeppelinContext ist ein bisschen anders mit dem sparkr Interpreter:

Sie werden die .z.get(...) mit einem . vor der z für die sparkr Interpreter verwenden müssen. Beispiel:

%spark.r 
.z.get("myDF")