2016-07-25 28 views
1

In meiner App spiele ich die Audios mithilfe der URL mit Hilfe von AvPlayer. Jetzt möchte ich die Unterstützung von Untertiteln darin hinzufügen. iOS 10 stellt die Speech framework vor, die uns helfen, die Echtzeit und aufgezeichnete Sprache zu erkennen. Wie nach dem Apfel.Generieren von Untertiteln aus einer Audiodatei mit dem Sprach-Framework iOS

„Du Rede Transkription von sowohl Echtzeit-und Audioaufzeichnung durchführen kann, zum Beispiel, können Sie einen Spracherkenner bekommen und einfache Spracherkennung starten Code wie folgt verwendet:

let recognizer = SFSpeechRecognizer() 
let request = SFSpeechURLRecognitionRequest(url: audioFileURL) 
recognizer?.recognitionTask(with: request, resultHandler: { (result, error) in 
    print (result?.bestTranscription.formattedString) 
}) 

Nun suche ich nach dem Weg, wie ich die Untertitel in Form einer Saite mit aktuellem Audio abspielen kann und wie ich in der Lage sein werde zu wissen, welcher Dialog gerade abgespielt wird, damit ich genau das wiedergeben kann gleiche Zeichenfolge auf dem Bildschirm

Antwort

1

Im Segmentabschnitt von SFSpeechRecognition können Sie selektiv Identifizieren Sie die Untertitel, die Sie wünschen. Dazu müssen Sie die Segmente durch einen Filter analysieren, der bestimmten Text hervorhebt.