-3

Ist nicht der Back Propagation Algorithmus unabhängige Algorithmus oder benötigen wir andere Algorithmen wie Bayes'sche damit für neuronales Lernen und benötigen wir einen probabilistischen Ansatz für die Implementierung von Back-Propagation-Algorithmus?Ist Back Propagation Algorithmus Algorithmus

+0

Ist unabhängige Methode – janisz

+0

Könnten Sie bitte erläutern, welches Problem Sie versuchen, genau zu lösen? –

+0

Eigentlich habe ich nur den Rückpropagierungsalgorithmus für neuronales Netzwerktraining implementiert, aber ich habe gelernt, dass ich andere Algorithmen neben der Rückpropagation zum Lernen benötige, wie die Rückpropagation mit Bayesian oder k-Means ......... .Mein Projekt ist Expertensystem zur Vorhersage von Diabetes ...... Ist es notwendig, andere Algorithmen zusammen mit Rückwärtsausbreitung oder Rückausbreitung zu implementieren? – rozi

Antwort

0

Backpropagation ist nur eine effiziente Methode zur Berechnung von Gradienten in Computergrafiken. Das ist alles. Sie müssen es nicht verwenden (obwohl das Berechnen von Gradienten ohne es extrem teuer ist), und was Sie damit tun, liegt bei Ihnen - es gibt Hunderte von Möglichkeiten, Gradienten zu verwenden. Am gebräuchlichsten ist es, es zu verwenden, um Optimierungstechniken erster Ordnung (wie SGD, RMSProp oder Adam) auszuführen. Um Ihre Frage zu beantworten - Backpropagation ist also genug, wenn und nur wenn Sie einen Gradienten berechnen wollen. Zum Lernen des neuronalen Netzes benötigen Sie mindestens ein weiteres Stück - einen tatsächlichen Lernalgorithmus (wie SGD, der buchstäblich eine einzelne Codezeile ist). Es ist schwer zu sagen, wie "unabhängig" es von anderen Methoden ist, wie gesagt - Gradienten können überall verwendet werden.

+0

Ich bin hier verwirrt ......... Ist das Anpassen von Gradient nicht das Anpassen von Gewichten und Anpassen von Gewichten? – rozi

+0

Backpropagation ** ist nicht ** Gewichte anpassen. backpropagation soll nur Gradienten berechnen, nicht ** anwenden ** sie. Wenn Sie Gewichte anpassen, bedeutet dies, dass Sie bereits ein Lernschema oben verwenden, wahrscheinlich SGD (wenn Sie nur Gewichte in Form von new_w_i aktualisieren = Lernrate * gradient_i; Backpropagation als solche soll nur "gradient_i" berechnen) – lejlot

+0

Es ist also so, dass die Delta-Regel und die Back-Propagation zwei verschiedene Entitäten sind? – rozi