Ich versuche, eine JSON-Datei zu importieren, die in S3 in DynamoDB hochgeladen wurdeImportieren von Daten von S3 DynamoDB
ich das Tutorial amazon gegeben hat
http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-importexport-ddb-console-start.html
Aber wenn ich gefolgt versuchen, aktivieren Sie die Pipeline die Komponente TableLoadActivity ausfällt und DDBDestinationTable sagt CASCADE_FAILED
Beide geben den Fehler
bei org.apache.hadoop.mapreduce.JobSubmitter.writeOldSplits (JobSubmitter.java:520) unter org.apache.hadoop.mapreduce.JobSubmitter.writeSplits (JobSubmitter.java:512) unter org.apache.hadoop.mapreduce.JobSubmitter. submitJobInternal (JobSubmitter.java:394) bei org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1285) bei org.apache.hadoop.mapreduce.Job $ 10.run (Job.java:1282) bei Java .security.AccessController.doPrivileged (Native Methode) unter javax.security.auth.Subject.doAs (Subject.java:415) unter org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java:1548) unter org.apache .hadoop.mapreduce.Job.submit (Job.java:1282) bei org.apache.hadoop.mapred.JobClient $ 1.run (JobClient.java:562) bei org.apache.hadoop.mapred.JobClient $ 1.run (JobClient .java: 557) bei java.security.AccessController.doPrivileged (Native Methode) bei javax.security.auth.Subject.doAs (Subject.java:415) bei org.apache.hadoop.security.UserGroupInformation.doAs (UserGroupInformation.java : 1548) bei org.apache.hadoop.mapr ed.JobClient.submitJobInternal (
Jede mögliche Hilfe