Ich verwende eine Apache Spark-Anwendung mit Garn auf einem Hadoop-Cluster. Nachdem das Programm beendet ist, gibt es eine Möglichkeit, das Profil der CPU-Auslastung dieses Programms zu überprüfen. Grundsätzlich möchte ich ein Profiling-Protokoll in Abständen von etwa 1 oder 2 Sekunden.So erhalten Sie das CPU-Nutzungsprofil einer Garn-basierten Spark-Anwendung
0
A
Antwort
1
können Sie die Resourcemanager Rest API? S verwenden
Grundsätzlich benötigen Sie einen REST-Client zu implementieren, die ResourManager jeweils 1 bis 2 Sekunden abfragen und Ihre eigenen Protokolle zur Laufzeit erstellen.