Ich arbeite derzeit an wiederkehrenden neuronalen Netzen mit Lasagne/Theano.Lasagne/Theano Gradientenwerte
Während des Trainings werden Aktualisierungen mithilfe des symbolischen Farbverlaufs von Theano berechnet.
grads = theano.grad(loss_or_grads, params)
Während der Gradient Ausdruck völlig in Ordnung, im Allgemeinen ist, bin ich auch daran interessiert, den Gradienten Werte um Training zu überwachen.
Meine Frage ist jetzt, ob es eine eingebaute Methode gibt, um auch Gradientenwerte zu bekommen, die ich bisher nicht gefunden habe, oder wenn ich es selbst machen muss.
Vielen Dank im Voraus