Ich habe mehrere kleine parquet
Dateien als Ausgabe von Hive Ql Job generiert, möchte ich die Ausgabedateien zu einzelnen Parkett-Datei zusammenführen?Wie mehrere Parkett-Dateien mit Linux-oder hdfs-Befehl zu einzelnen Parkett-Datei zusammenführen?
Was ist der beste Weg, es mit einigen hdfs or linux commands
zu tun?
Wir haben die Textdateien mit dem Befehl cat
zusammengeführt, aber funktioniert das auch für Parkett? Können wir es mit HiveQL
selbst beim Schreiben von Ausgabedateien tun, wie wir es tun, repartition
oder coalesc
Methode in spark
?
Überall kann ich nur ein Glas herunterladen? Das zu bauen ist ein Schmerz. – samthebest