Hallo ich muss eine Tabelle in Phoenix von einem Funken Job erstellen. Ich habe 2 Möglichkeiten unten versucht, aber keiner von ihnen funktioniert, scheint, das wird immer noch nicht unterstützt.create table in phoenix von spark
1) Dataframe.write erfordert nach wie vor, dass die Tabellen
df.write.format("org.apache.phoenix.spark").mode("overwrite").option("table", schemaName.toUpperCase + "." + tableName.toUpperCase ).option("zkUrl", hbaseQuorum).save()
2), wenn wir nach Phoenix durch JDBC verbinden, und versuchen, die CREATE statemnt ausführen, dann erhalten wir einen Parsing-Fehler (gleiche erstellen zuvor
existieren arbeitet in Phoenix)var ddlCode="create table test (mykey integer not null primary key, mycolumn varchar) "
val driver = "org.apache.phoenix.jdbc.PhoenixDriver"
val jdbcConnProps = new Properties()
jdbcConnProps.setProperty("driver", driver);
val jdbcConnString = "jdbc:phoenix:hostname:2181/hbase-unsecure"
sqlContext.read.jdbc(jdbcConnString, ddlCode, jdbcConnProps)
Fehler: org.apache.phoenix.exception.PhoenixParserException: eRROR 601 (42P00): Syntaxfehler. Begegnet „create“ in Zeile 1, Spalte 15.
Wer mit ähnlichen Herausforderungen, die es anders machen verwaltet?
Haben Sie einen Ausweg für das oben genannte Problem gefunden? Ich habe auch nach dem gesucht. – pjain