Gibt es eine Möglichkeit, unbeaufsichtigte Funktionen aus einer Reihe von Bildern zu lernen. Ähnlich wie Word2vec oder doc2vec, wo neuronales Netzwerk erlernt wird und neue Dokumente erhalten, erhalten wir seine Eigenschaften.Wie kann man nach dem Trainieren eines neuronalen Netzes ein Bild für ein Bild extrahieren?
Ähnlich wie in diesem Beispiel erwartet https://dato.com/learn/gallery/notebooks/food_retrieval-public.html zeigt, dass er gelernte NN-Modell laden und Funktionen für neue Bilder vorhersagen kann.
Gibt es ein einfaches Beispiel, wie cnn über Bilder zu implementieren und ihre Funktionen zurück zu bekommen, hilft !!
Angenommen in diesem Beispiel https://github.com/fchollet/keras/blob/master/examples/mnist_cnn.py Wenn ich cnn Funktionen für alle X_train und X_test bekommen möchte ... gibt es eine Möglichkeit? Wenn wir auch Gewichte pro Schicht pro Bild bekommen können, können wir sie stapeln und als Features verwenden. In diesem Fall gibt es eine Möglichkeit, das Gleiche zu erreichen. Die Verwendung dieser Funktionen für unbeaufsichtigte Aufgaben wäre einfacher, wenn wir sie als Vektoren betrachten.
Danke @Marcin .. Ich werde in das Papier schauen. Was ich verstehen wollte, war wie in Word2vec die letzte Ebene zu entfernen und nur versteckte Ebenengewichte als Features zu nehmen ... Für Bilder hält das immer noch ODER müssen wir die Gewichte aus allen Layern nehmen? Und über Keras v1.0 hat große Veränderungen ... Ich sehe nicht auch Auto-Encoder! –
Kühl. Visualisierung ist eine gute Idee, um die Bedeutung von Features aus bestimmten Ebenen zu verstehen. Danke für die aktualisierte Antwort. Ich bewege mich vom flachen Netzwerk zum tiefen Netzwerk ... daher so viele Fragen !! Danke noch einmal !! –