Ist es möglich, einen Spark Executor nach einem Absturz neu zu starten? Ich verstehe, dass die fehlgeschlagenen Aufgaben in den vorhandenen funktionierenden Spark-Executoren erneut ausgeführt werden, aber ich hoffe, dass es einen Weg gibt, den abgestürzten Spark-Executor neu zu starten.Wie startet man einen Spark-Executor neu, nachdem er abgestürzt ist (im YARN-Client-Modus)?
I pyspark 1.6 auf GARN leite, im Client-Modus
Manchmal sind alle meine Spark-Executoren abgestürzt und Spark hat gerade gehängt. Gibt es eine Möglichkeit, aus dem aufgehängten Zustand herauszukommen, indem man eine Ausnahme ausstellt oder aufhebt? – Michael
Interessant. Habe es noch nie gehört/gesehen. Ich würde mich freuen, Logs aus einer solchen Situation zu sehen. –
Ok, ich werde eine weitere Frage Diskussion darüber erstellen, danke. – Michael