2016-06-19 18 views
1

Ich versuche die Funktionen von Deep Neural Networks (DNN) zu verwenden, um die Lease Squared SVM zu trainieren. Die Standardprozedur zum Lösen der LS-SVM besteht darin, die Kernel-Matrix umzukehren. Die Kernel-Matrix aus dem Feature von DNN ist jedoch nicht vollständig. Weiß jemand, wie man diese spärliche Matrix auf eine Matrix mit vollem Rang überträgt, ohne viel Information zu verlieren? Ist PCA eine gute Lösung, um die Eingabedimension zu reduzieren und zu verdichten?Sparse-Eingang für LS-SVM

Antwort

0

Sie scheinen Dinge zu verwirren. Kernel-Matrix ist eine Matrix von paarweisen Skalarprodukten, diese sind nicht Features. Wenn Sie Ihre Feature-Matrix F haben, die spärlich ist und N x H Größe, dann Kernmatrix (mit linearer Kernel auf diesen Raum) ist einfach:

K = F F' 

die N x N ist, und dicht Somit gibt es kein Problem mit der Anwendung von SVM.

+0

Immer noch, wenn ich die Kernel-Matrix überprüft, ist es nicht voll gewertet. Daher ist die Umkehrung nicht genau und die Leistung ist ebenfalls schlecht. – user3783676

+0

Dies ist der Grund, warum LS-SVM nicht die Kernel-Matrix invertiert, sondern eine Summe aus Kernel-Matrix und epsilon * I, die L2-Regularisierung effizient hinzufügt. Wiederum - das hat nichts mit Spärlichkeit zu tun – lejlot