Die spark docs Zustand:Spark-Streaming-Streaming aktiv Zählung
Nur ein Streaming kann in einer JVM zur gleichen Zeit aktiv sein.
einen Fall vorstellen, wo wir lesen sind die Planung/Prozessdaten aus zwei Kafka Themen, in denen es einen Job ist, Daten von einem Kafka Thema holen, und ein anderen Abrufdaten aus dem anderen kafka Thema. Kann ich diese beiden Jobs gleichzeitig auf demselben Hadoop-Cluster auslösen?
Darin heißt es auch,
Sobald ein Zusammenhang gestoppt wurde, ist es nicht neu gestartet werden kann.
Also wenn ich den Funken Job aus irgendeinem Grund stoppen muss, was ist der Weg, um es neu gestartet zu bekommen? Treibe ich es durch oozie oder etwas aus?