Ich bin völlig neu in Hadoop, und ich möchte eine große Datei komprimieren und in HDFS.So weit das ist, was ich getan habe 1) Installierte Single-Node-Cluster 2) Meine core-site.xml ist wieWie werden Dateien in Hadoop automatisch komprimiert?
<configuration>
<property> <name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property> <name>io.compression.codecs</name>
<value>com.hadoop.compression.lzo.LzoCodec</value>
</property>
</configuration>
Jetzt, wenn ich eine lokale 2GB-Datei in HDFS, mit folgenden Befehl bearbeiten.Ich sehe immer noch die gleiche Größe in HDFS.
hadoop fs -put 06_27_06_2016_tcp-leef.log-online /user/hduser/test/
nicht sicher, was ich hier fehlt, gibt es eine andere Eigenschaft, die ich brauche, in Hadoop-Umgebung zu aktivieren oder muss ich Karten reduzieren schreiben Programm dafür? So ist die Anforderung ist, wenn eine neue Datei kommt in HDFS sollte es automatisch komprimiert werden.
Dank VG
Danke Alex Sinn für mich, aber können Sie mir bitte mehr Klarheit darüber, warum wir oder den Zweck der Komprimierung von Eigenschaften in core-site.xml oder maperd-site.xml-Dateien? – user3332404
@ user3332404 Beispiel Ich habe angegeben, Komprimierung für einzelne Zeit anzuwenden map-reduced Job-Ausgabedaten Wenn Sie diese Eigenschaft in mapred-site.xml festlegen, wird sie automatisch für alle Ausgabedaten mit Map-reduce-Jobs angewendet Sie müssen diesen Parameter jedes Mal einstellen, wenn Sie einen Job ausführen – Alex