2016-08-09 30 views
1

Ich möchte Spark 2.0 und Spark 1.6.1 im Cluster-Modus auf einem einzelnen Cluster ausführen können, um Ressourcen gemeinsam nutzen zu können. Was sind die besten Verfahren dafür? Dies liegt daran, dass ich eine bestimmte Gruppe von Anwendungen vor Codeänderungen schützen kann, die sich auf 1.6.1 und andere auf Spark 2.0 stützen.Ausführen von zwei Versionen von Apache Spark im Cluster-Modus

Grundsätzlich könnte sich der Cluster auf die dynamische Zuweisung für Spark 2.0 stützen, aber vielleicht nicht für 1.6.1 - das ist flexibel.

+0

Welche Ressourcen-Manager sind Sie Spa mit rk eigenen Standalone-Scheduler? –

+0

Wir verwenden nichts, aber ich bin offen für die Verwendung von Mesos ... –

Antwort

0

Durch die Verwendung von Docker ist es möglich, dass Sie verschiedene Versionen der Spark-Anwendung ausführen können, da Docker die Anwendung in Isolation ausführt.

Docker ist eine offene Plattform für die Entwicklung, den Versand und den Betrieb von Anwendungen. . Mit Docker können Sie Ihre Anwendungen von Ihrer Infrastruktur trennen und Ihre Infrastruktur wie eine verwaltete Anwendung behandeln.

Industries adoptieren Docker, da es diese Flexibilität bieten verschiedene Version Anwendung in einem einzigen Nussschalen und viele mehr

Mesos auch

Docker Container mit Marathon laufen zu lassen laufen

Weitere Informationen entnehmen Sie bitte https://www.docker.com/ https://mesosphere.github.io/marathon/docs/native-docker.html

Hope this !!! hilft ....

+0

Ja ist die Frage, wie Ports mit Funke-Cluster-Modus behandelt werden - wie definiere ich Ports und Wiederverwendung von Executoren - der ganze Sinn des Sandboxing ein Die Anwendung soll in der Lage sein, die Executoren effektiv in einem Funkencluster zu verwenden - da es eine begrenzte Anzahl von Maschinen und Kernen gibt. –