2016-04-06 4 views
2

Ich versuche, eine JSON-Datei zu importieren, die in S3 in DynamoDB hochgeladen wurdeImportieren von Daten von S3 DynamoDB

ich das Tutorial amazon gegeben hat

http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-console-start.html

Aber wenn ich gefolgt versuchen, aktivieren Sie die Pipeline die Komponente TableLoadActivity ausfällt und DDBDestinationTable sagt CASCADE_FAILED

Beide geben den Fehler

bei org.apache.hadoop.mapreduce.JobSubmitter.writeOldSplits (JobSubmitter.java:520) unter org.apache.hadoop.mapreduce.JobSubmitter.writeSplits (JobSubmitter.java:512) unter org.apache.hadoop.mapreduce.JobSubmitter. submitJobInternal (JobSubmitter.java:394) bei org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1285) bei org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1282) bei Java .security.AccessController.doPrivileged (Native Methode) unter javax.security.auth.Subject.doAs (Subject.java:415) unter org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1548) unter org.apache .hadoop.mapreduce.Job.submit (Job.java:1282) bei org.apache.hadoop.mapred.JobClient $ 1.run (JobClient.java:562) bei org.apache.hadoop.mapred.JobClient $ 1.run (JobClient .java: 557) bei java.security.AccessController.doPrivileged (Native Methode) bei javax.security.auth.Subject.doAs (Subject.java:415) bei org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java : 1548) bei org.apache.hadoop.mapr ed.JobClient.submitJobInternal (

Jede mögliche Hilfe

Antwort

1

erkannt werden, entdeckte ich, dass Sie den inneren Ordner wählen haben, wobei ‚Manifest‘ vorhanden ist. Dies ist der Ordner mit dem Datum und der Uhrzeit des Backups.

Ich habe diesen Fehler erhalten, wenn ich den übergeordneten Ordner ausgewählt habe, dem ich meinen Tabellennamen gegeben habe.