2016-06-05 19 views
0

Frage: Isttf.nn.softmax_cross_entropy_with_logitsKonto für Losgröße?Ist tf.nn.softmax_cross_entropy_with_logits für die Batchgröße verantwortlich?

In meinem LSTM-Netzwerk füttere ich Chargen unterschiedlicher Größe und möchte wissen, ob ich den Fehler in Bezug auf die Batchgröße vor der Optimierung normalisieren sollte oder nicht.

+1

Ich weiß nicht, dass die Losgröße etwas damit zu tun hat. Das Verlieren ist per Beispiel (wie auch immer Sie das Beispiel definieren). Sie können den Mittelwert anschließend reduzieren, um den durchschnittlichen Verlust für die Charge zu erhalten – user2717954

Antwort

1

In der documentation heißt es, dass die softmax_cross_entropy_with_logits einen Vektor mit der Länge der Batchgröße zurückgibt. Um Skalarkosten zu erhalten, können Sie tf.reduce_mean für diesen Vektor verwenden. Dann wird Ihr Verlust nicht von der Losgröße beeinflusst.