Ich arbeite mit einem Scala-Programm mit Spark-Pakete. Zur Zeit verwende ich das Programm mit dem Bash-Befehl vom Gateway: /home/spark/bin/spark-supply --master Garn-Cluster - Klasse "com.xxx.yyy.zzz" - Treiber-Java-Optionen "-Dyyy.num = 5" a.jar arg1 arg2Starten eines Funken-Programms mit Oozie-Workflow
Ich würde gerne mit oozie arbeiten, um diesen Job zu erledigen. Ich habe ein paar Rückschläge:
Wo sollte ich die Spark-Submit ausführbare Datei? auf der hfs? Wie definiere ich die Funkenaktion? Wo sollen die --driver-java-Optionen erscheinen? Wie sollte die Oozie-Aktion aussehen? ist es ähnlich dem, der here erscheint?
Eine andere Option ist eine Shell-Aktion zu starten. Haben Sie Gründe, warum eine Java-Aktion bevorzugt werden sollte? – Irene
besser: Spark Action> Java Action> Shell Aktion. Da Sie nicht wissen, auf welchem Knoten die Shell ausgeführt wird, müssen Sie sicherstellen, dass alle Knoten die Abhängigkeiten für das Shell-Skript haben. – soulmachine
Die Datei spark-assembly.jar ist ab Spark v2.0.0 nicht mehr gültig - https: //issues.apache.org/jira/browse/SPARK-11157 – xgMz