Ich schreibe gerade eine Anwendung, die Bilder von der Kamera liest, sie modifiziert und in einer Videodatei speichert. Ich plane es mit ffmpeg zu machen. Es gibt selten eine Dokumentation über ffmpeg. Ich kann keinen Weg finden. Weiß jemand wie es geht?Wie schreibe ich Frames in eine Videodatei?
Ich brauche es unter Unix, und in C oder C++ getan werden. Kann irgendjemand eine Anleitung geben?
Danke.
EDIT:
Sorry, ich habe nicht deutlich schreiben. Ich möchte, dass einige Entwickler-APIs Frames in eine Videodatei schreiben. Ich öffne den Kamerastream, ich bekomme jeden einzelnen Frame, dann speichere ich sie in eine Videodatei mit diesen APIs, die in ffmpegs öffentlichen APIs verfügbar sind. Das Befehlszeilen-Tool hilft mir also nicht. Und ich habe output_example.c im Ordner ffmpeg src gesehen. Es ist ziemlich gut, dass ich einige Teile des Codes direkt ohne Änderung kopieren kann. Und ich suche immer noch nach einem einfacheren Weg.
Außerdem denke ich über die Portierung meiner App auf das iPhone, soweit ich weiß, wurde nur ffmpeg auf dem iPhone portiert. GStreamer basiert auf Glib, und es ist alles GNU-Zeug. Ich bin mir nicht sicher, ob ich es auf dem iPhone funktionieren kann. Also ist ffmpeg immer noch die beste Wahl für jetzt.
Kommentare sind willkommen.