Ich versuche, Hive externe Tabelle von Spark-Anwendung zu erstellen und die Position als Variable an den SQL-Befehl übergeben. Es erstellt keine Hive-Tabelle und ich sehe keine Fehler.Spark Scala erstellen externen Hive-Tabelle arbeitet nicht mit Speicherort als Variable
val location = "/home/data"
hiveContext.sql(s"""CREATE EXTERNAL TABLE IF NOT EXISTS TestTable(id STRING,name STRING) PARTITIONED BY (city string) STORED AS PARQUET LOCATION '${location}' """)
Haben Sie versucht, 'hdfs dfs -ls/home/data' es, um sicherzustellen, wurden geschaffen, nicht wahr? Was bringt das zurück? – javadba