Ich werde durch den 'Expert MINST' tf Tutorial (https://www.tensorflow.org/versions/r0.8/tutorials/mnist/pros/index.html) und ich bin auf diesem Teil stecken:TensorFlow Faltungs Nueral Netzwerk Tutorial
Densely Connected Schicht
Nun, da die Bildgröße wurde auf 7x7 reduziert, wir fügen eine vollständig verbundene Schicht mit 1024 Neuronen hinzu, um die Verarbeitung auf dem gesamten Bild zu ermöglichen. Wir formen den Tensor von der Pooling-Schicht in eine Charge von Vektoren um, multiplizieren mit einer Gewichtsmatrix, fügen eine Vorspannung hinzu und wenden eine ReLU an.
Warum die Nummer 1024? Woher kommt das?
Mein Verständnis mit der Fully Connected Layer ist, dass es irgendwie zur ursprünglichen Bildgröße zurückkommen muss (und dann fangen wir an, Sachen in unsere softmax Gleichung zu verstopfen). In diesem Fall ist die ursprüngliche Bildgröße Höhe x Breite x Kanäle = 28 * 28 * 1 = 784 ... nicht 1024.
Was fehlt mir hier?