2016-07-19 9 views
0

Hey Ich installiere HIVE in einem Hadoop 2.0 Multi Node Cluster, und ich bin nicht in der Lage, diesen Befehl Ordner erstellen mit:Ordner nicht mit hadoop fs Erstellt -mkdir

[hadoop @ Master ~] $ $ HADOOP_HOME/bin/hadoop fs -mkdir/tmp

16/07/19 14:20:15 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

[hadoop @ Master ~] $ $ HADOOP_HOME/bin/hadoop fs -mkdir -p/user/Nest/Lager 16/07/19 14:24:12 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

Wichtiger Hinweis: Ich kann den erstellten Ordner nicht finden? Wohin es gehen wird und ich bin mir nicht sicher. Bitte helfen Sie.

JPS für Hadoop funktioniert gut:
[hadoop @ Master ~] JPS $

2977 ResourceManager 
2613 DataNode 
3093 NodeManager 
2822 SecondaryNameNode 
2502 NameNode 
5642 Jps 
+0

So '$ hadoop fs - ls/'zeigt nicht'/tmp' auf HDFS? –

+0

Ja jetzt zeigt es sich das unten aber "Super Group"? 'drwxr-xr-x - hadoop supergruppe 0 2016-07-19 13:37/apple drwxr-xr-x - hadoop supergruppe 0 2016-07-19 13:42/steve_jobs drwxrwxr-x - hadoop supergruppe 0 2016- 07-18 12:51/tmp drwxr-xr-x - hadoop supergruppe 0 2016-07-19 13:22/benutzer drwxr-xr-x - hadoop supergruppe 0 2016-07-19 15:50/usr ' –

+0

Ok, also wurde es erstellt. Es gehört 'hadoop' und ist in der' supergroup' Gruppe. Was ist deine Frage? –

Antwort

0

Die Warnung Sie werden immer nach dem Ausführen -mkdir Befehl nicht die Hadoop-Funktionalität auswirken. Es ist nur eine Warnung, ignoriere es einfach. Details siehe here.

Über das Erstellen von Verzeichnissen unter Root, d. H. "/", Ist es nur einmalige Aktivität und sollte von Superuser durchgeführt werden.

sudo -u hdfs hdfs dfs -mkdir /tmp

OR

: Sobald Sie die Root-Verzeichnisse wie "/ tmp", "/ user" usw. zu erstellen, dann können Sie benutzerspezifische Foders wie "/ user/hduser" und besitzen sie mit Befehlen erstellen

sudo -u hdfs hdfs dfs -mkdir -p /user/hive/warehouse

Sobald Sie den Hauptordner bereit haben, besitzen sie nur mit dem Benutzer, der es verwenden werden:

sudo -u hdfs hdfs dfs -chown hduser:hadoop /user/hive/warehouse

Wenn Sie die Dateien/Verzeichnisse auf HDFS erstellt finden wollen, dann müssen Sie mit HDFS-Dateisystem interagieren CLI-Befehle nur

z.B. hdfs dfs -ls /

Die Daten, die auf HDFS erstellt werden, haben einen physischen Speicherort in Ihrem lokalen Dateisystem, aber Sie werden diesen Speicherort nicht als Dateien und Verzeichnisse sehen. Achten Sie auf die dfs.namenode.name.dir und dfs.datanode.data.dir Eigenschaften in 'hdfs-site.xml' unter Ihrer Installation, in der Regel finden Sie unter: "/usr/local/hadoop/etc/hadoop/hdfs-site.xml"