Ich möchte HBase Daten in einem Spark-Stream-Code zum Nachschlagen und weitere Verbesserung der Streaming-Daten lesen. Ich benutze spark-hbase-connector_2.10-1.0.3.jar
.HBase in Scala lesen - it.nerdammer
In meinem Code die folgende Zeile erfolgreich
val docRdd =
sc.hbaseTable[(Option[String], Option[String])]("hbase_customer_profile")
.select("id","gender").inColumnFamily("data")
docRdd.count
die richtige Anzahl zurückgibt.
docRdd
ist vom Typ
HBaseReaderBuilder (org.apache.spark.SparkContext @ 3a49e5, hbase_customer_profile, einige (Daten), WrappedArray (id, Geschlecht), None, None, List())
Wie kann ich alle Zeilen in id, gender
Spalten bitte lesen. Wie kann ich auch docRdd
in einen Datenrahmen konvertieren, so dass SparkSQL verwendet werden kann.
Danke @Beryllium. Ich werde das versuchen. Ich möchte die RDD in SparkStream verwenden. Ich hoffe, es ist auch serialisierbar. Nochmals vielen Dank für die Hilfe –
Brauchen Sie Hilfe bei dieser Frage? – Beryllium
Ich bin ganz auf diesen hier eingestellt. Vielen Dank.. –