Ich habe gerade begonnen, Spark Apache zu verwenden. Ich habe es auf meinem lokalen Computer getestet (Windows 10, Intel Core i5, 8 GB RAM) und alles hat funktioniert. Als ich versuchte, einen Cluster manuell zu starten, bekam ich einen Fehler wie in der unten angehängten Bild: Fehler beim manuellen Starten eines Clusters in Spark
Info von log (C: \ Funken \ logs \ Funke - org.apache.spark.deploy.master.Master -1-XXXXXX.out:
Spark-Befehl: C: \ Programme \ Java \ jdk1.8.0_72 \ bin \ java -cp C: \ Zünd-/conf \; C: \ Zünd-/lib/funke-assembly-1.6.0-hadoop2.6.0.jar; C: Spark \ lib \ datanucleus-api-jdo-3.2.6.jar; C: \ Spark \ lib \ datanucleus-core-3.2.10.jar ; C: \ Spark \ lib \ datanucleus-rdbms-3.2.9.jar -Xms1g -Xmx1g org.apache.spark.deploy.master.Master --ip XXXXXX --port 7077 --webui-port 8080
verwende ich diese Quellen dieses Problem zu beheben, aber keinen Erfolg:
Spark Standalone Mode
How to Setup Local Standalone Spark Node
Setup a Apache Spark cluster in your single standalone machine
Danke für jedes Feedback.
Können Sie die Protokolle zur Verfügung stellen? – PinoSan
zu meinem Beitrag hinzugefügt. – Hawk360
Sie sollten weitere Details zu Fehlermeldungen angeben. Sie sollten auch in Ihrer Frage genauer sein. Sie können mit einer vollständigen Kopie der Protokolle beginnen. Bis jetzt ist es so, als ob du sagst, dass meine App nicht funktioniert und ich habe keine Ahnung warum. Ich kann dir sonst nicht helfen. – PinoSan