Ich arbeite an einer App, in der ich linke Auge, rechtes Auge und Mundposition erkennen muss. Ich habe ein ImageView auf meinem self.view und imageView enthält ein Gesichtsbild, jetzt möchte ich beide Augen und Mundkoordinaten bekommen. Ich habe 2-3 Beispielcodes für dieses gesehen, aber alle sind ungefähr gleich in allen Codes, die wir meine Ansicht umkehren müssen, um die Koordinaten zusammenzubringen, die ich nicht will, weil meine Ansicht einige andere Kontrollen hat. Und noch eine Sache, die sie alle verwenden:Gesichtserkennung Problem mit CIDetector
aber mein ImageView hat Frame und ich kann es nicht mit Bild init. Als ich das tat, fand ich FaceFeature Augen und Mund Koordinaten falsch.
Ich hatte meinen Code von this sample code gestartet, aber in dieser Ansicht wird auch seine Y-Koordinate invertiert.
Kann mir jemand helfen, wie ich die Gesichtsaugen und die Mundposition auf dem Bild von UIImageView erkennen kann, ohne mein Selbst zu invertieren.
lassen Sie mich wissen, wenn meine Frage nicht klar genug ist.
Jede Hilfe würde geschätzt werden, Vielen Dank im Voraus!
danke für deine Antwort, aber was versuchst du zu erklären? Ich weiß, wie man FaceFeature Augen und Mundposition mit CGImage erkennen kann, meine Frage ist anders, ich habe Problem mit uiimageview uiimage. – TheTiger
Entschuldigung, deine Frage völlig missverstanden! –
gar nicht ..... :-) – TheTiger