Ich bekomme immer noch nicht genau das, was Sie erreichen wollen.
Wollen Sie zB die verschiedenen Smiley-Bilder vergleichen, die Sie mit dem Smiley-Smiley-Bild bekommen und sehen, ob eine der angegebenen Referenzen in diesem Bild angezeigt wird oder möchten Sie wirklich herausfinden, ob der Smiley/Person eingeschaltet ist dieses Bild lächelt?
Letzteres ist nicht so einfach zu erreichen. Die meisten Versuche, Emotionen von Menschen auf Bilder zu bekommen, extrahieren die verschiedenen Merkmale, die man im Gesicht sehen kann, dh Mundbreite, Position und "Offenheit" von Augen, Position und Winkel von Augenbrauen und so weiter ... Sie müssten dies umsetzen Methoden, um diese Funktionen zu erhalten (es gibt mehrere Methoden dafür) und klassifizieren Sie den Feature-Vektor zu Ihren gegebenen Testergebnissen, um eine bestmögliche Übereinstimmung zu bekommen, welche Emotion es ist ... Aber das alles ist wirklich nicht einfach ...
Wenn Sie wirklich vergleichen möchten, wie ähnlich zwei Bilder sind oder ob ein Bild in dem anderen ist (dh ob es einen gelben Smiley in einem Bild gibt), könnten Sie eine Vorlagenübereinstimmung auf den zwei Bildern ausprobieren ...
Definieren Sie "beste Übereinstimmung". Ähnliche Dimensionen? Ähnliche Farben? Ähnliche Verwendung von Farbe? Ähnliche Farbkleckse in den Bildern selbst? –
Wie im einfachsten Fall habe ich zwei sehr einfache Bilder, wie ein Smiley-Gesicht und ein trauriges Gesicht, und ich bekomme entweder ein Smiley-Gesicht oder ein trauriges Gesicht und das Programm erkennt, ob das Gesicht glücklich oder traurig war. – Retsam
@Retsam, hast du eine Lösung für dieses Erkennungskonzept? – Ramdy