Ist es möglich, 2 Spark-Cluster innerhalb eines einzigen großen Yarn-Clusters zu definieren? Spark im Yarn-Modus Ich meine natürlich, ich könnte Spark im Standalone-Modus bereitstellen.Zwei Spark Clusters in einem einzelnen Garn-Cluster
sagen, dass ich die folgenden Maschinen:
- h1, H2, H3
- k4, k5, k6
- s1, s2, s3, s4, s5, s6
- T1, T2 , t3
Die Nummer steht für das Rack. Auf h Ich habe HDFS, auf k Ich habe Kafka, auf s und t Ich möchte Spark installieren. Auf allen Maschinen gibt es Garn, also hat der Cluster insbesondere eine Vorstellung von der Rack-Lokalität.
Ich hätte gerne zwei isolierte Spark-Cluster auf s und t, so dass, wenn ich einen Job auf einer der t Maschinen (im Yarn-Modus), keine Aufgabe auf den Maschinen und umgekehrt.
Ist das möglich? Danke, E.
Meinst du, dass du 2 Jobs parallel auf Garn einreichen willst? Ein Cluster ist eine Maschinengruppe. – eliasah
Nein, ich meine Cluster als Gruppe von Maschinen - ich habe einen großen Garn Cluster und ich möchte 2 isolierte Funken in diesem erstellen. – ecesena