0
Ich bin ein pyspark Job auf AWS-EMR läuft und ich bekam die folgende Fehlermeldung:pyspark: IOError: [Errno 20] kein Verzeichnis
IOError: [Errno 20] Not a directory: '/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg/my_common/data_tools/myData.yaml'
Weiß jemand, was ich vielleicht verpasst haben? Vielen Dank!
Aktie mehr Info: Befehl, Funken Job oder Eingabe/Ausgabe-Argumente. –
Haben Sie die Lösung gefunden? Ich stehe vor demselben Problem –