2016-07-13 24 views
0

Ich habe noch nie solche Lernkurven gesehen. Habe ich Recht, dass eine riesige Überanpassung stattfindet? Das Modell passt besser und besser zu den Trainingsdaten, während es sich für die Testdaten schlechter verallgemeinert.Hohe Verzerrung oder Varianz? - SVM und verwilderte Lernkurven

Normalerweise, wenn es eine hohe Varianz gibt, wie hier, sollten weitere Beispiele helfen. In diesem Fall werden sie nicht, ich vermute. Warum das? Warum solch ein Beispiel von Lernkurven in Literatur/Tutorials nicht leicht gefunden werden kann?

Learning curves. SVM, param1 is C, param2 is gamma

Antwort

1

Sie müssen bedenken, dass SVM nicht parametrisches Modell ist, so dass mehr Proben nicht über Varianz zu verringern. Varianzreduktion kann mehr oder weniger für parametrisches Modell (wie neuronales Netz) garantiert werden, aber SVM ist nicht einer von ihnen - mehr Proben bedeuten nicht nur bessere Trainingsdaten, sondern auch komplexeren Modell. Ihre Lernkurven sind ein typisches Beispiel für SVM-Überanpassung, was bei RBF-Kernel häufig vorkommt.

+0

Vielen Dank für Ihre Antwort. Ich habe nicht genug Erfahrung mit nicht parametrischem Modell, also habe ich nicht darüber nachgedacht. Können Sie mir sagen, was ist, wenn ich eine ähnliche Handlung habe, aber die Validierungskurve steigt, genau wie die Trainingskurve? Was für mich eine Sache ist, ist, dass das Trainingset die ganze Zeit steigt. Der Abstand zwischen den Kurven ist immer noch groß, sagen wir konstant. Kann ich davon ausgehen, dass sich nichts geändert hat, das Model noch übermalt? – DavidS1992