1Hitze
1Antwort
unter Verwendung des Gradienten von Huber Verlust in theano
0Hitze
1Antwort
Gradient Abstieg nicht aktualisiert Theta-Wert
0Hitze
1Antwort
Stattdessen LBFGS, mit Gradientenabstieg in Sparse Autoencoder
1Hitze
1Antwort
Tensorflow Gradient ist immer Null
3Hitze
1Antwort
Gradientenabstieg vektorisiert Berechnung Abmessungen nicht korrekt
0Hitze
1Antwort
Logistische Regressionsverlust-Funktion in Softmax umwandeln
0Hitze
2Antwort
Gründe, nicht tf.train.AdamOptmizer zu verwenden?
13Hitze
1Antwort
R Verwendung für Multi-Class-logistische Regression
0Hitze
1Antwort
0Hitze
1Antwort
Gradient Sinking funktioniert nicht ohne Normalisierung, warum?