Ich habe Spark und Hadoop in Standalone-Modi auf Ubuntu Virtualbox für mein Lernen installiert. Ich bin in der Lage, normale hadoop mapreduce-Operationen auf hdfs ohne Funken durchzuführen. Aber wenn ich Code unten in Funken Shell verwenden,Kann nicht lesen eine Datei aus HDFS mit Spark Shell in Ubuntu
val file=sc.textFile("hdfs://localhost:9000/in/file")
scala>file.count()
ich „Eingangspfad existiert nicht.“ Fehler. Die Datei core-site.xml hat fs.defaultFS mit dem Wert hdfs: // localhost: 9000. Wenn ich localhost ohne die Portnummer gebe, bekomme ich "Connection refused" Fehler, da es auf Standardport 8020 hört. Hostname und localhost sind auf Loopbackadressen 127.0.0.1 und 127.0.1.1 in etc/hosts gesetzt. Bitte lassen Sie mich wissen, wie Sie dieses Problem lösen können. Vielen Dank im Voraus!
versuchen, dies in Terminal 'hadoop fs -ls hdfs: // localhost: 9000/in /' . Ist die Datei verfügbar? – WoodChopper