Die Wikipedia page for backpropagation hat diese Forderung:Wie ist Backpropagation gleich (oder nicht) wie umgekehrte automatische Differenzierung?
Der Backpropagation-Algorithmus, um einen Gradienten für die Berechnung wieder entdeckte einige Male gewesen ist, und ist ein Spezialfall einer mehr allgemeinen Technik automatische Differenzierung in dem umgekehrten Akkumulationsmodus aufgerufen .
Kann jemand dies erläutern, um es in Laien auszudrücken? Was unterscheidet die Funktion? Was ist der "Sonderfall"? Werden die adjungierten Werte selbst oder die endgültige Steigung verwendet?