2016-07-21 8 views
1

SnappyData v.0-5Lead-Knoten ausfällt mit /tmp/spark-jobserver/filedao/data/jars.data (Permission denied)

ich in Ubuntu als Benutzer nicht-root angemeldet, 'foo' . SnappyData-Verzeichnis/install gehört zu 'foo' user und 'foo' group.

ich alle Knoten am Start (Locator, Blei, Server) mit einem Skript hier:

SNAPPY_HOME/sbin/snappy-start-all.sh

Locator beginnt. Server startet. Lead stirbt mit diesem Fehler ab.

16/07/21 23: 12: 26,883 UTC serverConnector INFO JobFileDAO: RootDir ist/tmp/Funken Job Server/filedao/data 16/07/21 23: 12: 26,888 UTC serverConnector ERROR Jobserver $ : Kann nicht Funken Jobserver starten: java.lang.reflect.InvocationTargetException bei sun.reflect.NativeConstructorAccessorImpl.newInstance0 (native Methode) bei sun.reflect.NativeConstructorAccessorImpl.newInstance (NativeConstructorAccessorImpl.java:62) bei Sonne. reflect.DelegatingConstructorAccessorImpl.newInstance (DelegatingConstructorAccessorImpl.java:45) bei java.lang.ref lect.Constructor.newInstance (Constructor.java:423) bei spark.jobserver.JobServer $ .start (JobServer.scala: 69) um io.snappydata.impl.LeadImpl.startAddOnServices (LeadImpl.scala: 283) um io .snappydata.impl.LeadImpl $ .invokeLeadStartAddonService (LeadImpl.scala: 360) bei io.snappydata.ToolsCallbackImpl $ .invokeLeadStartAddonService (ToolsCallbackImpl.scala: 28) bei org.apache.spark.sql.SnappyContext $ .invokeServices (SnappyContext.scala: 1362) bei org.apache.spark.sql.SnappyContext $ .initGlobalSnappyContext (SnappyContext.scala: 1340) bei org.apache.spark.sql.SnappyContext (SnappyContext.scala. 104) bei org .apache.spark.sql.SnappyContext. (SnappyContext.scala: 95) bei org.apache.spark.sql.SnappyContext $ .newSnappyContext (SnappyContext.scala: 1221) bei org.apache.spark.sql.SnappyContext $ .apply (SnappyContext.scala: 1249) bei org .apache.spark.scheduler.SnappyTaskSchedulerImpl.postStartHook (SnappyTaskSchedulerImpl.scala: 25) bei org.apache.spark.SparkContext. (SparkContext.scala: 601) um io.snappydata.impl.LeadImpl.start (LeadImpl.scala: 129) bei io.snappydata.impl.ServerImpl.start (ServerImpl.scala: 32) bei io.snappydata.tools.LeaderLauncher.startServerVM (LeaderLauncher.scala: 91) bei com.pivotal.gemfirexd.tools.internal .GfxdServerLauncher.connect (GfxdServerLauncher.java:174) bei com.gemstone.gemfire.internal.cache.CacheServerLauncher $ AsyncServerLauncher.run (CacheServerLauncher.java:1003) bei java.lang.Thread.run (Thread.java:745) Verursacht durch: java.io.FileNotFoundException : /tmp/spark-jobserver/filedao/data/jars.data (Berechtigung verweigert) unter java.io.FileOutputStream.open0 (Native Methode) um java.io.FileOutputStream.open (FileOutputStream.java:270) um java.io.FileOutputStream. (FileOutputStream.java:213) um spark.jobserver.io.JobFileDAO.init (JobFileDAO.scala: 90) um spark.jobserver.io.JobFileDAO. (JobFileDAO.scala: 30). .. 22 mehr 16/07/21 23:12:26.891 UTC Verteiltes System Shutdown Hook INFO snappystore: VM wird beendet - Schließung verteilt down-System

Benötige ich ein anderer Benutzer, um die Lead-Knoten zu starten? Benutze 'sudo'? Konfigurieren Sie eine Eigenschaft, die Spark anweist, ein Verzeichnis zu verwenden, für das 'foo' berechtigt ist? Erstelle dieses Verzeichnis selbst im Voraus?

Antwort

1

Es scheint, dass der aktuelle Besitzer von/tmp/spark-jobserver ein anderer Benutzer ist. Überprüfen Sie die Berechtigungen für dieses Verzeichnis und löschen Sie sie.

Wenn mehrere Benutzer Leads auf demselben Computer ausführen, können Sie die Jobserververzeichnisse so konfigurieren, dass sie sich an einer anderen Stelle befinden, z. B. here. Die relevanten Eigenschaften finden Sie in application.conf Quelle. Dies ist wahrscheinlich mehr Mühe als wert, so dass es jetzt einfacher ist, sicherzustellen, dass ein einzelner Benutzer die Leitungsknoten auf einer Maschine startet.

Wir werden den Standard beheben, um in Arbeit/Verzeichnis in der nächsten Version (SNAP-69) zu sein.