Ich versuche mit dem Befehl hdfs Zugriff auf Amazon S3-Bucket. Hier ist Befehl, den ich laufen:Zugriff amazon S3-Bucket von hadoop Angabe von SecretAccessKey von der Befehlszeile
$ hadoop fs -ls s3n://<ACCESSKEYID>:<SecretAccessKey>@<bucket-name>/tpt_files/
-ls: Invalid hostname in URI s3n://<ACCESSKEYID>:<SecretAccessKey>@<bucket-name>/tpt_files
Usage: hadoop fs [generic options] -ls [-d] [-h] [-R] [<path> ...]
Mein SecretAccessKey
„/“ enthält. Könnte es Ursache für solches Verhalten sein?
In der gleichen Zeit, die ich aws cli habe in diesem Server installiert und ich kann meinen Eimer mit aws cli Zugang ohne Probleme (AccessKeyId und SecretAccessKey in .aws konfigurieren/Anmeldeinformationen):
aws s3 ls s3:// <bucket-name>/tpt_files/
Wenn es irgendein So greifen Sie mit dem Hadoop-Befehl auf Amazon S3-Bucket zu, ohne Schlüssel in core-site.xml anzugeben? Ich würde es vorziehen, Schlüssel in der Befehlszeile anzugeben.
Alle Vorschläge werden sehr hilfreich sein.
Vielen Dank! Wird versuchen, das Instanzprofil zu verwenden. –