2016-06-09 7 views
0

Ich erstelle eine iPhone-Anwendung in Objective C. Ich versuche, den Text von einem Bild (aus der Kamera) zu erkennen. Dazu benutze ich in meiner App Tesseract OCR Library. Es funktioniert gut für einige der Text, aber keine genauen Ergebnisse aus dem aufgenommenen Bild. Haben Sie auch die neueste Tessdata-Datei von Google-Code.Wie erkenne ich mit Tesseract OCR Library in iOS den genauen Text eines Bildes?

Ich habe Tesseract-Bibliothek von this link hinzugefügt.

Unten ist mein Bild, das ich zu erkennen versucht:

enter image description here

Mein Code ist wie folgt:

G8Tesseract *tesseract = [[G8Tesseract alloc] initWithLanguage:@"eng+fra" engineMode:G8OCREngineModeTesseractCubeCombined]; 
    [tesseract setVariableValue:@"abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ:;,.!-()#&÷" forKey:@"tessedit_char_whitelist"]; 
    tesseract.pageSegmentationMode = G8PageSegmentationModeAuto; 
    tesseract.maximumRecognitionTime = 60.0; 
    tesseract.image = [selectedImage g8_blackAndWhite]; 
    [tesseract recognize]; 

    NSLog(@"%@", [tesseract recognizedText]); 

Aber ich bin immer Ergebnisse wie folgt aus:

BAZAAR 

mm; l Savees l smmamm l mm; l Accessories 

commemw Street ' _ . «mm. me o snwapnagay 

www minabazaav.cum 

Ich gehe schon von diesen Links:

Haben andere das gleiche Problem?

Antwort

0

Für meinen Fall Tesseract Library war die meiste Zeit nicht genau. stattdessen war Abby irgendwie in Ordnung. aber abby ist jetzt offline nicht

Abby Stackoverflow Channel

+0

Vielen Dank für Ihre Antwort @iDev, mit ABBYY ich den genauen Text von meinem aufgenommenen Bild bekam. Können Sie mir bitte vorschlagen, ob ich jeden Text in Bezug auf Name, Adresse, E-Mail, Telefonnummer usw. trennen kann? –

+0

'http: // cloud.ocrsdk.com/processBusinessCard' mit dieser API erhalten Sie separate Werte, die Sie erwarten – Rajesh

+0

das ist richtig, werfen Sie einen Blick auf diese http://ocrsdk.com/documentation/apireference/processBusinessCard/ – Rajesh