2016-05-04 6 views
0

Ich versuche, eine Vora-Tabelle mit Spark-Vora erstellen, aber nicht erstellen können. Bitte finden Sie unten vollständige FehlerprotokollSAP Hana Vora: Unable erstellen Vora Tabelle auf Cloudera

com.sap.spark.vora.CatalogException$SystemErrorException: System error 
at com.sap.spark.vora.catalog.VoraCatalog.exists(VoraCatalog.scala:122) 
at com.sap.spark.vora.SchemaCatalog.load(SchemaCatalog.java:463) 
at com.sap.spark.vora.SchemaCatalog.loadTable(SchemaCatalog.java:454) 
at com.sap.spark.vora.SchemaCatalog.loadTable(SchemaCatalog.java:122) 
at com.sap.spark.vora.client.catalog.VoraCatalogClient$class.getTableMetadata(VoraCatalogClient.scala:180) 
at com.sap.spark.vora.client.VoraClient.getTableMetadata(VoraClient.scala:58) 
at com.sap.spark.vora.DefaultSource.createRelation(DefaultSource.scala:165) 
at org.apache.spark.sql.execution.datasources.CreateTableUsingTemporaryAwareCommand.resolveDataSource(CreateTableUsingTemporaryAwareCommand.scala:73) 
at org.apache.spark.sql.execution.datasources.CreateTableUsingTemporaryAwareCommand.run(CreateTableUsingTemporaryAwareCommand.scala:31) 
at org.apache.spark.sql.execution.ExecutedCommand.sideEffectResult$lzycompute(commands.scala:57) 
at org.apache.spark.sql.execution.ExecutedCommand.sideEffectResult(commands.scala:57) 
at org.apache.spark.sql.execution.ExecutedCommand.doExecute(commands.scala:69) 
at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$5.apply(SparkPlan.scala:140) 
at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$5.apply(SparkPlan.scala:138) 
at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:147) 
at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:138) 
at org.apache.spark.sql.SQLContext$QueryExecution.toRdd$lzycompute(SQLContext.scala:933) 
at org.apache.spark.sql.SQLContext$QueryExecution.toRdd(SQLContext.scala:933) 
at org.apache.spark.sql.DataFrame.<init>(DataFrame.scala:144) 
at org.apache.spark.sql.DataFrame.<init>(DataFrame.scala:129) 
at org.apache.spark.sql.DataFrame$.apply(DataFrame.scala:51) 
at org.apache.spark.sql.SQLContext.sql(SQLContext.scala:725) 
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:30) 
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:35) 
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:37) 
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:39) 
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:41) 
at $iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:43) 
at $iwC$$iwC$$iwC$$iwC.<init>(<console>:45) 
at $iwC$$iwC$$iwC.<init>(<console>:47) 
at $iwC$$iwC.<init>(<console>:49) 
at $iwC.<init>(<console>:51) 
at <init>(<console>:53) 
at .<init>(<console>:57) 
at .<clinit>(<console>) 
at .<init>(<console>:7) 
at .<clinit>(<console>) 
at $print(<console>) 
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
at java.lang.reflect.Method.invoke(Method.java:606) 
at org.apache.spark.repl.SparkIMain$ReadEvalPrint.call(SparkIMain.scala:1065) 
at org.apache.spark.repl.SparkIMain$Request.loadAndRun(SparkIMain.scala:1340) 
at org.apache.spark.repl.SparkIMain.loadAndRunReq$1(SparkIMain.scala:840) 
at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:871) 
at org.apache.spark.repl.SparkIMain.interpret(SparkIMain.scala:819) 
at org.apache.spark.repl.SparkILoop.reallyInterpret$1(SparkILoop.scala:857) 
at org.apache.spark.repl.SparkILoop.interpretStartingWith(SparkILoop.scala:902) 
at org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:814) 
at org.apache.spark.repl.SparkILoop.processLine$1(SparkILoop.scala:657) 
at org.apache.spark.repl.SparkILoop.innerLoop$1(SparkILoop.scala:665) 
at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$loop(SparkILoop.scala:670) 
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply$mcZ$sp(SparkILoop.scala:997) 
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945) 
at org.apache.spark.repl.SparkILoop$$anonfun$org$apache$spark$repl$SparkILoop$$process$1.apply(SparkILoop.scala:945) 
at scala.tools.nsc.util.ScalaClassLoader$.savingContextLoader(ScalaClassLoader.scala:135) 
at org.apache.spark.repl.SparkILoop.org$apache$spark$repl$SparkILoop$$process(SparkILoop.scala:945) 
at org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1059) 
at org.apache.spark.repl.Main$.main(Main.scala:31) 
at org.apache.spark.repl.Main.main(Main.scala) 
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) 
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) 
at java.lang.reflect.Method.invoke(Method.java:606) 
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:674) 
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:180) 
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:205) 
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:120) 
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala) Caused by: com.sap.hl.catalog.VoraCatalogException$ConnectionTimeoutException: Failure in connecting to the catalog within 2 SECONDS 
at com.sap.hl.catalog.commands.Utils.handleResult(Utils.java:82) 
at com.sap.hl.catalog.commands.Utils.getTransaction(Utils.java:26) 
at com.sap.hl.catalog.commands.Exists.call(Exists.java:24) 
at com.sap.hl.catalog.commands.Exists.call(Exists.java:10) 
at java.util.concurrent.FutureTask.run(FutureTask.java:262) 
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) 
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) 
at java.lang.Thread.run(Thread.java:745) 
------------------------------------------------------------------------ 

Bitte helfen Sie mir, dieses Problem zu lösen.

Danke, Akash

Antwort

0

Der Fehler zeigt an, dass der Vora Katalog ist entweder nicht installiert oder nicht korrekt ausgeführt wird.

Da der Vora Katalog beruht auf der Vora DLoG, die DLoG muss auch installiert und ausgeführt werden. Anweisungen zur Installation finden Sie unter Vora Installation and Administration Guide. Sie können die Benutzeroberfläche des Vora Discovery Servers (: 8500/ui) auf einen 'grünen' Eintrag für 'vora-catalog' und 'dlog' überprüfen. Bei Problemen können Sie die Protokolldateien/var/log/vora-catalog und/var/log/vora-dlog überprüfen.

+0

Danke Frank. Ich habe die Benutzeroberfläche von Vora Discovery Server überprüft und den 'Red'-Eintrag für dlog sowie für vora-catalog gefunden, aber nichts in den Log-Dateien von dlog und vora-catalog gefunden. Haben Sie einen Trick, um das Problem zu finden, während ich dem gleichen Weg gefolgt bin, der in Vora Installation and Administration Guide erwähnt wurde. –

+0

Sie meinen, Sie haben keine Protokolle gefunden oder meinen Sie, dass Sie nichts in den Logs gefunden haben? Was hast du in den Logs gefunden? Ich habe Fälle gesehen, in denen keine Protokolldateien erzeugt wurden, wenn die falsche Netzwerkschnittstelle verwendet wurde. Haben Sie eth0 als Netzwerkschnittstelle in Ihrem Cluster? Wenn nicht, müssen Sie in der Konfiguration für Discovery-Server, Katalog und DLog eine andere Netzwerkschnittstelle angeben. –

+0

Ich habe ein neues Problem beim Erstellen einer Vora-Tabelle. com.sap.spark.vora.CatalogException $ SystemErrorException: Systemfehler bei com.sap.spark.vora.catalog.VoraCatalog.store (VoraCatalog.scala: 33) bei com.sap.spark.vora.SchemaCatalog .createTable (SchemaCatalog.java:106) unter com.sap.spark.vora.client.catalog.VoraCatalogClient $ class.createTableInCatalog (VoraCatalogClient.scala: 58) unter com.sap.spark.vora.client.VoraClient.createTableInCatalog (VoraClient.scala: 58) –