2015-02-10 2 views
9

Ich möchte wissen, ist es möglich, die Hadoop-Version zu ändern, wenn der Cluster von Spark-ec2 erstellt wird?Ändern Hadoop-Version mit Spark-ec2

versuchte ich

spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster 

dann melde ich mich mit

spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster 

und fand die hadoop Version 1.0.4 ist raus.

Ich möchte 2.x-Version von Hadoop verwenden, was ist der beste Weg, dies zu konfigurieren?

+0

Ich glaube nicht, dass dies derzeit unterstützt wird, obwohl es eine [Open PR zum Hinzufügen von Unterstützung zum Starten von Hadoop 2-Clustern] gibt (https://github.com/mesos/spark-ec2/pull/77). –

Antwort

8

Hadoop 2,0

spark-ec2 Skript nicht Modifizierung vorhandenen Cluster nicht unterstützt, aber Sie können erstellen einen neuen Spark-Cluster mit Hadoop 2.

diesen Auszug Siehe aus dem Skript --help:

--hadoop-major-version=HADOOP_MAJOR_VERSION 
        Major version of Hadoop (default: 1) 

So zum Beispiel:

spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 --hadoop-major-version=2 launch my-spark-cluster 

..will Sie einen Cluster mit aktuellen Version von Funken und Hadoop 2.


erstellen Wenn Sie Spark-v verwenden. 1.3.1 oder Funken v. 1.4.0 und wird ein erstellen Standalone-Cluster, dann erhalten Sie auf diese Weise Hadoop v. 2.0.0 MR1 (von Cloudera Hadoop Platform 4.2.0 Verteilung).


Die Einsprüche sind:

..aber ich habe erfolgreich verwendet ein paar Cluster von Spark 1.2.0 und 1.3.1 erstellt mit Hadoop 2.0.0, mit einigen Hadoop2-spezifischen Funktionen. (Für Spark 1.2.0 mit ein paar Veränderungen, die ich in meiner Gabeln Spark gesetzt und spark-ec2, aber das ist eine andere Geschichte.)


Hadoop 2.4, 2.6

Wenn Sie Hadoop 2.4 oder Hadoop 2.6 dann würde ich derzeit (Stand Juni 2015) empfehlen, einen eigenständigen Cluster manuell zu erstellen - es ist einfacher als Sie wahrscheinlich denken.

+0

Hallo Greg, empfehlen Sie immer noch nicht, mit spark-ec2 Skripten Hadoop 2.6 zu starten? – dirceusemighini

+0

Hallo @dirceusemighini! Ich habe seit Juni 2015 nicht mehr daran gearbeitet, also Spark v. 1.4.0 und ab März 2016 haben wir v.1.6.1 stable, daher habe ich leider keine aktuelle Meinung. –

+0

Ok, danke @ greg-dubicki – dirceusemighini