Wie laden Sie CSV-Datei in SparkR auf RStudio? Im Folgenden sind die Schritte aufgeführt, die ich ausführen musste, um SparkR auf RStudio auszuführen. Ich habe read.df verwendet, um .csv nicht sicher zu lesen, wie man das sonst schreibt. Nicht sicher, ob dieser Schritt RDDs erstellt wird.Wie CSV-Datei in SparkR auf RStudio laden?
#Set sys environment variables
Sys.setenv(SPARK_HOME = "C:/Users/Desktop/spark/spark-1.4.1-bin-hadoop2.6")
.libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))
#Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.10:1.0.3" "sparkr-shell"')
#Load libraries
library(SparkR)
library(magrittr)
sc <- sparkR.init(master="local")
sc <- sparkR.init()
sc <- sparkR.init(sparkPackages="com.databricks:spark-csv_2.11:1.0.3")
sqlContext <- sparkRSQL.init(sc)
data <- read.df(sqlContext, "C:/Users/Desktop/DataSets/hello_world.csv", "com.databricks.spark.csv", header="true")
Ich erhalte Fehler:
Error in writeJobj(con, object) : invalid jobj 1
Ich versuchte neue Funken-csv von oben. Jetzt, wenn ich Daten ausführen <- read.df, erhalte ich diesen Fehler: Fehler: returnStatus == 0 ist nicht wahr. – sharp
Können Sie einen vollständigen StackTrace bereitstellen? – zero323
Beziehen Sie sich auf R-Konsolenausgänge? – sharp