Ich trainiere einen tiefen Autoencoder (für jetzt 5-Layer-Codierung und 5-Layer-Decodierung, Leaky ReLu verwenden), um die Dimensionalität der Daten von etwa 2000 Dims auf 2 zu reduzieren trainiere mein Modell auf 10k-Daten, und das Ergebnis ist akzeptabel. Das Problem tritt auf, wenn ich größere Daten verwende (50k bis 1M). Die Verwendung des gleichen Modells mit dem gleichen Optimizer und Dropout usw. funktioniert nicht und das Training bleibt nach einigen Epochen stecken. Ich versuche, eine Hyper-Parameter-Suche auf dem Optimierer zu tun (ich benutze Adam), aber ich bin mir nicht sicher, ob dies das Problem lösen wird.tiefes Autoencoder-Training, kleine Daten vs. große Daten
Sollte ich nach etwas anderem suchen, um es zu ändern? Kommt es in diesem Fall auf die Losgröße an? Soll ich das Problem lösen, indem ich den Optimierer optimiere? Soll ich mit der Dropout-Quote spielen? ...
Jeder Rat wird sehr geschätzt.
p.s. Ich benutze Keras. Es ist sehr bequem. Wenn Sie sich nicht über sie wissen, überprüfen Sie es dann aus: http://keras.io/
Danke! All diese Tipps sind nützlich. Ich habe verschiedene 10k-Subsamples getestet und sie machen keinen Unterschied, daher nehme ich an, dass die Samples fair gewählt sind. Was die Größe der Codierungsschicht anbelangt, hilft das Vergrößern der Größe nicht. Ich habe versucht, es auf 10 statt 2 zu erhöhen, und in diesem Fall werden weder 10k noch 50k korrekt trainiert. – Mos