Ich habe versucht, den SVM-Algorithmus zu verstehen, und ich kann die Hyperplane-Gleichung nicht vollständig erhalten. Die Gleichung lautet: w. x -b = 0. Was ich verstehe (mit vielen Verwirrungen) ist x ist unbekannt Satz von allen Vektoren, die die Hyperebene bildet und w ist normaler Vektor zu dieser Hyperebene. Wir kennen die w nicht, wir müssen den optimalen w vom Trainingssatz finden.visualisieren Hyperebenen-Gleichung von SVM
Jetzt wissen wir alle, wenn zwei Vektoren senkrecht zueinander stehen, dann ist ihr Skalarprodukt Null. Also, wenn w ist normal zu x dann heißt das, es sollte w sein. x = 0, aber warum heißt es w. x -b = 0 oder w. x = b? (Normal und senkrecht ist die gleiche Sache, oder?) Im normalen Sinne, was ich verstehe, wenn w. x = b, dann w und x ist nicht senkrecht und der Winkel zwischen ihnen ist mehr oder weniger als 90 Grad.
Eine andere Sache ist, in den meisten Tutorials (auch MIT-Professor in seinem lecture) gesagt wird, dass x auf w projiziert, aber ich weiß, wenn ich Projektion nehmen wollen x auf w dann wird es x sein. w/| w | (ohne die Richtung w), nicht nur w. x. Habe ich Recht mit diesem Punkt?
Ich denke, ich vermisse etwas oder etwas falsch zu verstehen. Kann mir jemand dabei helfen?
Was ist der Unterschied zwischen der Projektion von x auf w und der Komponente von x in Richtung von w? –
Nicht viel. Nur dass du normalisierst w so seine Norm | w | wird bei der Projektion von x auf w nicht berücksichtigt. –
ok, von deinem ersten Punkt, was ich verstehe, in der Gleichung w.x-b = 0, x ist nicht die Vektoren auf den Hyperebenen, stattdessen sind es Vektoren aus dem Trainingssatz, bin ich richtig? –