2016-07-22 26 views
1

Ich habe einen Funken (1.4.1) Anwendung läuft auf Garn, die mit dem folgenden Testamentsvollstrecker Protokolleintrag nicht:Funkenjob fehlschlägt: storage.DiskBlockObjectWriter: abgefangene Ausnahme während Teil schreibt Rückkehr Datei

16/07/21 23:09:08 ERROR executor.CoarseGrainedExecutorBackend: Driver 9.4.136.20:55995 disassociated! Shutting down. 
16/07/21 23:09:08 ERROR storage.DiskBlockObjectWriter: Uncaught exception while reverting partial writes to file /dfs1/hadoop/yarn/local/usercache/mitchus/appcache/application_1465987751317_1172/blockmgr-f367f43b-f4c8-4faf-a829-530da30fb040/1c/temp_shuffle_581adb36-1561-4db8-a556-c4ac0e6400ed 
java.io.FileNotFoundException: /dfs1/hadoop/yarn/local/usercache/mitchus/appcache/application_1465987751317_1172/blockmgr-f367f43b-f4c8-4faf-a829-530da30fb040/1c/temp_shuffle_581adb36-1561-4db8-a556-c4ac0e6400ed (No such file or directory) 
    at java.io.FileOutputStream.open0(Native Method) 
    at java.io.FileOutputStream.open(FileOutputStream.java:270) 
    at java.io.FileOutputStream.<init>(FileOutputStream.java:213) 
    at org.apache.spark.storage.DiskBlockObjectWriter.revertPartialWritesAndClose(BlockObjectWriter.scala:189) 
    at org.apache.spark.util.collection.ExternalSorter.spillToMergeableFile(ExternalSorter.scala:328) 
    at org.apache.spark.util.collection.ExternalSorter.spill(ExternalSorter.scala:257) 
    at org.apache.spark.util.collection.ExternalSorter.spill(ExternalSorter.scala:95) 
    at org.apache.spark.util.collection.Spillable$class.maybeSpill(Spillable.scala:83) 
    at org.apache.spark.util.collection.ExternalSorter.maybeSpill(ExternalSorter.scala:95) 
    at org.apache.spark.util.collection.ExternalSorter.maybeSpillCollection(ExternalSorter.scala:240) 
    at org.apache.spark.util.collection.ExternalSorter.insertAll(ExternalSorter.scala:220) 
    at org.apache.spark.shuffle.sort.SortShuffleWriter.write(SortShuffleWriter.scala:62) 
    at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:70) 
    at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:41) 
    at org.apache.spark.scheduler.Task.run(Task.scala:70) 
    at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:213) 
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 
    at java.lang.Thread.run(Thread.java:745) 

Irgendwelche Hinweise darauf, was schief gegangen sein könnte?

+0

Mind Upgrade auf 1.6.2 (oder bald 2.0)? Es wurden einige Probleme gemeldet, die Ihrem Fall ähnlich sind und in den letzten Versionen behoben wurden. –

+0

@JacekLaskowski Ich würde das gerne, aber es liegt nicht an mir. – mitchus

+1

Ich habe heute eine ähnliche Nachricht mit Spark 2.0 unter SparkR erhalten; Neustart meiner Sitzung schien den Fehler zu beheben - wahrscheinlich wird OP nicht helfen, aber nur sagen. – russellpierce

Antwort

0

Sie können versuchen, spark.yarn.executor.memoryOverhead zu verbessern.

+0

Ich habe das schon versucht, es auf mehrere GB erhöht, ohne Erfolg für diesen speziellen Fehler. – mitchus

+0

Ich hatte ein ähnliches Problem. Ich habe diese Einstellung auf 4 GB von 384 MB erhöht, aber ich bekomme den gleichen Fehler. –