Nach dem Spark on Mesos docs man die spark.executor.uri
die auf eine Zündverteiler einstellen muss:Wie Pre-Paket externen Bibliotheken bei der Verwendung von Funken auf einer Mesos Cluster
val conf = new SparkConf()
.setMaster("mesos://HOST:5050")
.setAppName("My app")
.set("spark.executor.uri", "<path to spark-1.4.1.tar.gz uploaded above>")
Die docs beachten Sie auch, dass man eine benutzerdefinierte bauen Version der Spark-Distribution.
jetzt meine Frage, ob es möglich/wünschenswert ist, im Voraus Paket externen Bibliotheken wie
- Funken Streaming-kafka
- Elasticsearch Funken
- Funken csv
, die in den meisten Job-Gläsern verwendet werden, die ich über spark-submit
an
- die Zeit
sbt assembly
Notwendigkeit reduzieren die Fett Gläser - reduzieren die Größe der Fett Gläser, die
Wenn dies der Fall vorgelegt werden müssen, um verpacken, wie kann dies erreicht werden? Gibt es im Allgemeinen einige Hinweise darauf, wie die Herstellung von Fettimpulsen im Auftragseingabeprozess beschleunigt werden kann?
Hintergrund ist, dass ich einige Code-Generierung für Spark-Jobs ausführen möchte, und diese sofort absenden und die Ergebnisse in einem Browser-Frontend asynchron zeigen. Der Frontend-Teil sollte nicht zu kompliziert sein, aber ich frage mich, wie der Backend-Teil erreicht werden kann.
Wenn Sie Pre-Paket sagen meinen verteilen Sie wirklich an alle Slaves und die Arbeitsplätze einrichten, diese Pakete zu verwenden, so dass Sie diese nicht jedes Mal herunterladen müssen? Das mag eine Option sein, klingt aber etwas umständlich. – hartem