val lines: RDD[String] = sc.textFile("/tmp/inputs/*")
val tokenizedLines = lines.map(Tokenizer.tokenize)
In dem obigen Codeausschnitt kann die Tokenize-Funktion leere Zeichenfolgen zurückgeben. Wie überspringe ich das Hinzufügen zur Karte in diesem Fall? oder entfernen Sie leere Einträge nach dem Hinzufügen zur Karte?Entfernen von leeren Zeichenfolgen aus Karten in Scala
ist dieser Filter das Ergebnis oder sie entfernen? Ich bin scharf darauf, sie zu entfernen. – Siva
Der Filter gibt eine neue Auflistung ohne leere Zeichenfolgen zurück. – akagroundhog
Wenn ich nach der Filterung die Tokenzeilen drucke, hat es immer noch leere Zeichenfolgen im Array-Puffer. Fehle ich etwas zusätzlich? – Siva