Ich teste die gedruckten Ziffern (0-9) auf einem Convolutional Neural Network. Es gibt 99+% Genauigkeit auf dem MNIST-Datensatz, aber wenn ich es mit Schriftarten auf dem Computer (Ariel, Calibri, Cambria, Cambria Mathe, Times New Roman) versucht und trainiert die Bilder von Schriftarten (104 Bilder pro Schriftart (Total 25 Fonts -.? 4 Bilder pro Schriftart (kleiner Unterschied)) die Trainingsfehlerquote geht nicht unter 80%, dh 20% Genauigkeit WarumZiffernerkennung auf CNN
hier "2" Anzahl Bilder Probe -
Ich skalierte jedes Bild 28 x 28.
Hier ist mehr Detail: -
Trainingsdatengröße = 28 x 28 Bilder. Netzparameter - Wie LeNet5 Architektur von Network -
Input Layer -28x28
| Convolutional Layer - (Relu Activation);
| Pooling Layer - (Tanh Activation)
| Convolutional Layer - (Relu Activation)
| Local Layer(120 neurons) - (Relu)
| Fully Connected (Softmax Activation, 10 outputs)
Dies funktioniert, so dass 99 +% Genauigkeit auf MNIST. Warum ist das bei computergenerierten Schriften so schlimm? Ein CNN kann viel Varianz in Daten verarbeiten.
Was ist die vollständige Topologie, die Sie verwenden? Ist es das Original LeNet5, oder haben Sie eine der versteckten Ebenen verändert? Wenn Sie ein neues Modell von Grund auf neu trainieren, sollte die Überanpassung wie eine weitere Erfolgsquote von über 99% aussehen. Ihre 20% deuten auf ein ganz anderes Problem hin. – Prune
Ja, es ist original LeNet5, Layers sind wie oben erwähnt, Es arbeitet mit MNIST-Dataset, aber nicht mit meinem Dataset, Meine Dataset-Größe ist 1036 Bilder, 104 pro Nummer. – kumar030