Also versuche ich, Spark mit Python (Pyspark) zu lernen. Ich möchte wissen, wie die Funktion mapPartitions
funktioniert. Das ist es, was Input benötigt und was Output gibt. Ich konnte kein richtiges Beispiel aus dem Internet finden. Nehmen wir an, ich habe ein RDD-Objekt mit Listen, wie unten.Wie funktioniert die pyspark mapPartitions-Funktion?
[ [1, 2, 3], [3, 2, 4], [5, 2, 7] ]
Und ich mag Element 2 aus allen Listen entfernen, wie würde ich erreichen, dass mapPartitions
verwenden.
Warum gibst du nichts zurück in filterOut2FromPartition f Salbung. Zweitens, ist ein Keyword in Python endgültig? Ich denke du solltest final.iterator = [] anstelle von final_iterator sagen. – MetallicPriest
Die Probleme behoben – bearrito
Ich habe versucht, dies zu implementieren, aber ich bekomme den Fehler "Liste Objekt ist kein Iterator". Außerdem glaube ich, als du [x für x in Zeile, wenn x! = 2] geschrieben hast, meinst du [x für x in der Liste, wenn x! = 2]. Ich habe dort die Liste benutzt. – MetallicPriest