2016-07-20 16 views
0

Gibt es eine Möglichkeit, Dateien per Batch-Upload in Hadoop unter einer Hortonworks-VM mit CentOS hochzuladen? Ich sehe, dass ich das HDFS-Files-Tool der Ambari-Sandbox verwenden kann, das aber nur eins nach dem anderen hochladen kann. Anscheinend konnten Sie Redgate's HDFS Explorer in der Vergangenheit verwenden, aber es ist nicht mehr verfügbar. Hadoop ist dafür gemacht, große Datenmengen zu verarbeiten, aber es ist absurd, alle Dateien eins nach dem anderen hochzuladen ... Danke!Hortonworks VM - Hadoop-Batch-Upload?

Antwort

0

Natürlich können Sie die * Wildcard in copyFromLocal verwenden können, f.e .:

hdfs dfs -copyFromLocal input/* /tmp/input