2016-05-10 11 views
1

Hallo stackoverflow Gemeinschaft, also wollte ich Hadoop installieren, aber ich habe ein Problem. Ich habe andere Ansätze angeschaut, aber ich empfange immer noch. Ich bin völlig neu in Hadoop, also weiß ich nicht wirklich wohin. Ich bin auf einem MacBook Pro mit El Capitan, wenn relevant. Sobald ich sbin/start-dfs.sh machen erhalte ich diese:Hadoop: Falsche Konfiguration

sbin/start-dfs.sh 
16/05/10 11:09:37 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured. 
Starting namenodes on [] 
Password: 
localhost: /usr/local/Cellar/hadoop/2.7.2/libexec/sbin/hadoop-daemon.sh: line 69: [: MacBook: integer expression expected 
localhost: starting namenode, logging to /usr/local/Cellar/hadoop/2.7.2/libexec/logs/hadoop-name-namenode-name’s 
localhost: Error: Could not find or load main class MacBook 

Die hadoop-daemon.sh ist:

enter image description here

Die relevanten XMLs sind wie folgt:

Kern -site.xml

<configuration> 
    <property> 
     <name>fs.defaultFS</name> 
     <value>hdfs://localhost:9000</value> 
    </property> 
</configuration> 

hdfs-site.xml

<configuration> 
    <property> 
     <name>dfs.replication</name> 
     <value>1</value> 
    </property> 
</configuration> 

Wenn etwas gewünscht wird, werde ich frei zur Verfügung stellen. Vielen Dank für die Hilfe und ich weiß es zu schätzen, denn ich möchte wirklich mit Hadoop arbeiten.

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_65.jdk/Contents/Home 
export HADOOP_PREFIX=/usr/local/Cellar/hadoop 

Hey, so ist dies ein Update, wenn jemand in Betracht gezogen wird: Ich bekomme jetzt diese

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
Starting namenodes on [[email protected]] 

New Anmerkung: Ich bin den Prozess redoing mit und refollowing diese Anleitung. Ob Erfolg mir gehört oder nicht, ich werde hier mein Update posten :)!

zhongyaonan.com/hadoop-tutorial/… 
+0

Wenn Sie nur Hadoop, um zu versuchen, dann laden Sie eine vorgefertigte Verteilung von Cloudera oder Hortonworks. (Nannte die Schnellstart-VM oder Sandbox, –

+0

ist es irgendwie um die virtuelle Box? – chris123

+0

ich wollte es nur als Eclipse Plugin ausführen – chris123

Antwort

0

Sieht aus wie Ihre conf richtig folgenden Schritte nicht gesetzt versuchen

export HADOOP_CONF_DIR = $HADOOP_HOME/etc/hadoop 
hdfs namenode -format 
hdfs getconf -namenodes 
./start-dfs.sh 
+0

Also änderte ich den Dir Hadoop wie du gesagt hast und empfange dies. – chris123

+0

Fehler: Kann das Konfigurationsverzeichnis nicht finden:/etc/hadoop Fehler: Kann Konfigurationsverzeichnis nicht finden:/etc/hadoop Starten von sekundären namenodes [2016-05-10 12: 07: 27,079 WARN [main] util.NativeCodeLoader (NativeCodeLoader.java : (62)) - Native-Hadoop-Bibliothek für Ihre Plattform kann nicht geladen werden ... ggf. mit eingebauten-Java-Klassen 0.0.0.0] Fehler: Konfigurationsverzeichnis nicht gefunden:/etc/hadoop – chris123

+0

Haben Sie HADOOP_HOME festgelegt?Versuchen Sie, dies auf Ihr Installationsverzeichnis zu setzen. – vgunnu