Ich bin neu in der Erfassung von Video (AVFoundation
) und WOWZA-Server.Wie sende ich Videostreaming an WOWZA Server mit RTSP von iOS App?
Ich habe viele Lösungen überprüft, aber keine Tutorials oder Bibliotheken auf "Wie man mit WOWZA Server mit RTSP arbeiten" gefunden. Ich habe ein Projekt VideoCore auf GitHub gefunden, aber es funktioniert nur auf RTMP. Sie haben vorgeschlagen, answer auf dem RTSP-Problem, USE live555 Protokoll. Aber ich verstehe C++ Code kaum.
Meine Frage:
- Wie bekomme ich Video-Stream von AVFoundation? Im Moment bin ich immer Dateidaten nicht
AVCaptureFileOutputRecordingDelegate
mit streamen:
captureOutput(_: didFinishRecordingToOutputFileAtURL:, fromConnections: error:)
Aber ich brauche Strom-Ausgangsdaten, so dass ich zu WOWZA Server senden können.
- Wie konvertiert man Video in den codierten h.264-Stream?
- Wie integriert man die live555-Bibliothek in die VideoCapture-Klasse für die Generierung der RTSP-URL?
- Wie das Video an WOWZA mit RTSP-Protokoll senden?
Bitte, schlagen Sie mich mit jeder Bibliothek oder Beispielcode in Ihrer Antwort.
In einem kurzen Blick fand ich das Encoder-Projekt (https://github.com/OpenWatch/H264-RTSP-Server-iOS). Zugegeben, es sieht so aus, als würde es auf dem Gerät veröffentlicht werden und Sie müssten es von Wowza aus aufnehmen, aber es nutzt die AVFoundation-Bibliothek, die für Ihre Entwicklung nützlich sein könnte. – Matt