2016-05-06 26 views
0

Ich kann auf diesen Folien nicht verstehen, warum die SVD auf das Least-Square-Problem angewendet wird? enter image description hereWarum wird SVD auf die lineare Regression angewendet

Und dann folgt das:

enter image description here

Und hier verstehe ich nicht, warum die Ableitung der Residuen genommen war und ist es die Idee in diesem Diagramm, das die Projektion zu nehmen y um den Fehler zu minimieren?

enter image description here

enter image description here

Antwort

0

Hier ist mein bescheidener Versuch, dies zu erklären ...
Die erste Folie noch nicht erklären, wie SVD zu LS zusammenhängt. Aber es sagt, dass, wenn X eine "Standard" -Matrix ist, man das Problem mit einer Singular-Matrix transformieren kann (nur Diagonalelemente sind nicht null) - was für die Berechnung praktisch ist.
Folie 2 zeigt die Berechnung, die mit der Singular-Matrix durchgeführt werden soll.
Die Erklärung befindet sich auf Folie 3: Die Minimierung der Norm von r entspricht der Minimierung ihres Quadrats, das die RSS ist (weil x -> x * x eine ansteigende Funktion für x> 0 ist). Minimierung von RSS: Gleich wie das Minimieren einer "guten" Funktion, Sie leiten es ab und stellen dann die Ableitung gleich 0 dar.