In Spark, gibt es drei grundlegende Möglichkeiten, die Optionen für die SparkConf
verwendet zur Angabe der SparkContext
zu erstellen:anpassen SparkContext mit sparkConf.set (..) bei der Verwendung von Funken Shell
- Als Objekte im conf /spark-defaults.conf
- zB die Zeile:
spark.driver.memory 4g
- zB die Zeile:
- Als args funken-Schale oder funkenunterwerfen
- zB
spark-shell --driver-memory 4g ...
- zB
- In Ihrem Quellcode, eine
SparkConf
Instanz zu konfigurieren, bevor es mit demSparkContext
zu erstellen:- zB
sparkConf.set("spark.driver.memory", "4g")
- zB
jedoch bei der Verwendung von spark-shell
, der SparkContext ist bereits für Sie erstellt, wenn Sie eine Shell-Eingabeaufforderung erhalten, in der Vari in der Lage, sc
. Wie benutzt man bei Verwendung von Spark-Shell die Option # 3 in der obigen Liste, um Konfigurationsoptionen festzulegen, wenn der SparkContext bereits erstellt wurde, bevor Sie Scala-Anweisungen ausführen können?
Insbesondere versuche ich Kyro Serialisierung und GraphX zu verwenden. Die vorgeschriebene Art und Weise Kryo mit GraphX zu verwenden, ist die folgende Scala-Anweisung auszuführen, wenn die SparkConf
Instanz Customizing:
GraphXUtils.registerKryoClasses(sparkConf)
Wie kann ich das erreichen, wenn spark-shell
läuft?