Ich versuche, WebRTC um den Kopf zu bekommen. Ich muss Live-Audio über einen Webbrowser erfassen und streamen können.WebRTC Live Audio Streaming/Broadcast
Ich habe nur Schwierigkeiten, die Codebeispiele zu finden, die ich verstehen kann oder auf dem neuesten Stand ist. Wenn mir jemand helfen könnte, zuerst Audio im selben Browser mit HTML5/WebRTC zu erfassen und abzuspielen, würde das mir helfen, mich auf den Weg zu machen.
Hinweis: Ich bin nur besorgt, dass dies in Chrome (oder Chrome Canary für diese Angelegenheit!) Funktioniert.
Danke für jede Hilfe!
Ich mag den HTML5 Rocks Artikel auch;). (Fügen Sie bitte Kommentare hinzu, wenn etwas unklar, falsch oder nicht sinnvoll ist.) Ich führe auch eine Anleitung zu WebRTC-Ressourcen unter http://docs.webplatform.org/wiki/tutorials/webrtc_resources. Sehen Sie sich vor allem die HTML5 Rocks-Anleitung des einfachen W3C RTCPeerConnection-Beispiels an, um sich mit der Signalisierung im Gegensatz zur Medien-/Datenkommunikation vertraut zu machen. Auf der Serverseite möchten Sie vielleicht die Verwendung von Node.js mit WebSocket unter Verwendung von Socket.IO ausprobieren, wie es HartleySan vorschlägt. –
@Sam Dutton, danke für das Schreiben dieses Artikels. Ich wusste nicht einmal WebRTC war eine Realität, bis ich Ihren Artikel gelesen habe. Die Sache, die mich am meisten verwirrte, war die Signalisierung. Ich denke, ein wenig mehr Informationen dazu wären hilfreich gewesen. Vielen Dank. – HartleySan
Danke @HartleySan. Ich habe den Artikel letzten Monat aktualisiert, also gibt es mehr über Signalisierung, aber ich werde versuchen, weitere Informationen zu liefern. –