2016-07-15 21 views
0

Ich bin ein pyspark Job auf AWS-EMR läuft und ich bekam die folgende Fehlermeldung:pyspark: IOError: [Errno 20] kein Verzeichnis

IOError: [Errno 20] Not a directory: '/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg/my_common/data_tools/myData.yaml' 

Weiß jemand, was ich vielleicht verpasst haben? Vielen Dank!

+0

Aktie mehr Info: Befehl, Funken Job oder Eingabe/Ausgabe-Argumente. –

+0

Haben Sie die Lösung gefunden? Ich stehe vor demselben Problem –

Antwort

0

Wie die Fehlerzustände my_common-9.0-py2.7.egg ist kein Verzeichnis.

Fehlt Ihnen Platz in Ihrem Weg?

/mnt/yarn/usercache/hadoop/filecache/12/my_common-9.0-py2.7.egg /my_common/data_tools/myData.yaml