Ich möchte wissen, ist es möglich, die Hadoop-Version zu ändern, wenn der Cluster von Spark-ec2 erstellt wird?Ändern Hadoop-Version mit Spark-ec2
versuchte ich
spark-ec2 -k spark -i ~/.ssh/spark.pem -s 1 launch my-spark-cluster
dann melde ich mich mit
spark-ec2 -k spark -i ~/.ssh/spark.pem login my-spark-cluster
und fand die hadoop Version 1.0.4 ist raus.
Ich möchte 2.x-Version von Hadoop verwenden, was ist der beste Weg, dies zu konfigurieren?
Ich glaube nicht, dass dies derzeit unterstützt wird, obwohl es eine [Open PR zum Hinzufügen von Unterstützung zum Starten von Hadoop 2-Clustern] gibt (https://github.com/mesos/spark-ec2/pull/77). –