Ich versuche, Daten von Apache Phoenix in einen Spark DataFrame zu laden.Ich kann keine Spark Phoenix DataFrames erstellen
ich in der Lage gewesen, um erfolgreich eine RDD mit dem folgenden Code zu erstellen:
val sc = new SparkContext("local", "phoenix-test")
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
val foo: RDD[Map[String, AnyRef]] = sc.phoenixTableAsRDD(
table = "FOO",
columns = Seq("ID", "MESSAGE_EPOCH", "MESSAGE_VALUE"),
zkUrl = Some("<zk-ip-address>:2181:/hbase-unsecure"))
foo.collect().foreach(x => println(x))
aber ich habe nicht so viel Glück versuchen, einen Datenrahmen zu schaffen. Mein aktueller Versuch ist:
val sc = new SparkContext("local", "phoenix-test")
val sqlContext = new SQLContext(sc)
val df = sqlContext.phoenixTableAsDataFrame(
table = "FOO",
columns = Seq("ID", "MESSAGE_EPOCH", "MESSAGE_VALUE"),
zkUrl = Some("<zk-ip-address>:2181:/hbase-unsecure"))
df.select(df("ID")).show
Leider ist die oben genannte Code führt zu einer Classcast:
java.lang.ClassCastException: org.apache.spark.sql.catalyst.expressions.GenericMutableRow cannot be cast to org.apache.spark.sql.Row
Ich bin noch sehr neu zu entfachen. Wenn jemand helfen kann, würde es sehr geschätzt werden!
Sie sind in Ordnung mit meiner Antwort, bitte. vote-up, "accepted-by-owner", das anderen Benutzern als Zeiger hilft –