Ich möchte Spark 2.0 und Spark 1.6.1 im Cluster-Modus auf einem einzelnen Cluster ausführen können, um Ressourcen gemeinsam nutzen zu können. Was sind die besten Verfahren dafür? Dies liegt daran, dass ich eine bestimmte Gruppe von Anwendungen vor Codeänderungen schützen kann, die sich auf 1.6.1 und andere auf Spark 2.0 stützen.Ausführen von zwei Versionen von Apache Spark im Cluster-Modus
Grundsätzlich könnte sich der Cluster auf die dynamische Zuweisung für Spark 2.0 stützen, aber vielleicht nicht für 1.6.1 - das ist flexibel.
Welche Ressourcen-Manager sind Sie Spa mit rk eigenen Standalone-Scheduler? –
Wir verwenden nichts, aber ich bin offen für die Verwendung von Mesos ... –