Wie ich großen Spielraum Wirkung in SVM verstehen:ist logistische Regression Large Margin Classifier?
Zum Beispiel lassen Sie uns auf diesem Bild sehen:
In SVM Optimierungsziel von Regularisierungsterm wir eine Reihe von Parametern zu finden versuchen, wo die Norm von (Parameter Vektor) Theta ist klein. Also müssen wir Vektor Theta, der klein ist, und Projektionen von positiven Beispielen (p) auf diesem Vektor groß finden (um kleinen Theta Vektor für inneres Produkt zu kompensieren). In der gleichen Zeit gibt uns großes p großen Rand. In diesem Bild finden wir ideale Theta und große p mit ihm (und großem Abstand):
Meine Frage:
Warum logistische Regression ist nicht groß Marge Klassifikator? In LR minimieren wir den Theta-Vektor in Regularisierung auf die gleiche Weise. Vielleicht habe ich etwas nicht verstanden, wenn ja - korrigieren Sie mich.
Ich habe Bilder und Theorie von Coursera ml-Klasse verwendet.