2016-08-05 7 views
0

Ich habe Funken auf meinem lokalen Rechner mit Python für analytische Puprosen verwendet.Was bedeutet ein Funkencluster?

Kürzlich habe ich die Worte "Funken Cluster" gehört und ich fragte mich, was es genau ist?

Läuft Spark nur auf einigen Maschinen?

Und wie kann es auf Cluster ohne Hadoop-System verwendet werden? Ist es möglich? Kannst du es bitte beschreiben?

+0

Cluster von Maschinen, ja. Ich bin ziemlich sicher, [die Dokumentation] (https://spark.apache.org/docs/latest/cluster-overview.html) kann Ihre Fragen beantworten. –

Antwort

1

Apache spark ist ein verteiltes Computersystem. Obwohl es auf einem einzigen Rechner laufen kann, ist es dazu gedacht, auf einem Cluster zu laufen und die Parallelität zu nutzen, die durch den Einsatz des Clusters möglich ist. Spark verwendet einen Großteil des Hadoop-Stacks, beispielsweise das HDFS-Dateisystem. Spark überschneidet sich jedoch erheblich mit der verteilten Hadoop-Computing-Kette. Hadoop-Zentren auf der Karte reduzieren das Programmiermuster, während Spark in Bezug auf das Programmdesign allgemeiner ist. Spark verfügt außerdem über Funktionen, mit denen die Leistung gesteigert werden kann.

Weitere Informationen finden Sie https://www.xplenty.com/blog/2014/11/apache-spark-vs-hadoop-mapreduce/

+0

Ich möchte nur klarstellen, dass Spark Hadoop in keiner Weise ersetzt. Es kann auf Hadoop arbeiten oder von Hadoop getrennt werden. –

+0

Ich werde bearbeiten, um zu korrigieren. Vielen Dank. –