Das Ziel des Programms war es, ein Echtzeit-emotionales Erkennungssystem zu erstellen. Wir werden opencv für die Gesichtserkennung verwenden. Ist es möglich, Catalano Framework zum Extrahieren der Gesichtsmerkmale aus dem Bild zu verwenden, das wir von der Gesichtserkennung erhalten? Wenn möglich wie? Wie verwenden Sie Fuzzy-Logik als emotionalen Klassifikator, nachdem Sie die extrahierten Gesichtszüge erhalten haben? Danke im Voraus.Wie wird das Catalano-Framework für die Extraktion von Gesichtsmerkmalen verwendet? Übrigens verwenden wir Java
Antwort
Ja, es ist möglich, die Gesichtszüge zu extrahieren, gibt es mehrere Texturalgorithmen (dh LBP, LBPu2, ILBP, CS-LBP, etc ...) enthält 14 LBP-Varianten zu arbeiten, und einige Pre- Verarbeitung photometric illuminant filters wie Retinex, Unterschied der Gaußschen (DoG), Tan-Triggs Normalisierung, Gradienten Gesichter, Retina Model. Außerdem gibt es einen Histogrammansatz wie das räumliche Histogramm und das räumliche Pyramidenhistogramm.
Dieses Bild zeigt meinen Ansatz mit dem Framework. Der Ansatz ist ähnlich wie der D. MATURANA.
Erste Seite, ist das Originalbild von der ORL database. Zweites Gesicht, ich hatte das Self-Quocient-Bild verwendet (ich implementiere das gerade). Drittes Gesicht, ist die Darstellung des räumlichen Histogramms (6x6).
Also berechne ich ILBP für jeden Block. Ich kann 6 * 6 * 511 = 18396 Features extrahieren.
Mit SVM Chi-Quadrat-Kernel und Leave-one-out, kann ich 99,25% Genauigkeit erreichen.
* Haftungsausschluss: Ich bin der Autor der Catalano Framework