Gibt es derzeit eine JavaScript-Bibliothek zum Konvertieren eines Videostreams in Canvas in ein 3D-Netz? Eine Beispielsituation besteht darin, eine Kamera auf einen Becher zu richten und die rohen Bilder zu erfassen, wobei vorherige Daten mit neuen Daten verglichen werden, um einen Kantenumriss der Objekte in der Ansicht zu erzeugen, idealerweise in den einfachsten Satz von Polygonen umzuwandeln und anzuzeigen das berechnete Polygon/Modell in einem zweiten Canvas-Element.Was sind geeignete Startpunkte für die Konvertierung von Video auf Leinwand in ein 3D-Netz?
Ich habe einige hervorragende Arbeit von mrdoob auf 3D-Javascript von Objektdateien zu Rendering in Leinwand gehen gesehen, aber ich bin auf der Suche nach Rohdaten und versuchen, ein Netz zu generieren. Die Absicht ist, die Maschenpunkte zwischen 2 Benutzern über Sockets für jedes Objekt zu senden, das sich gegenwärtig in der Kameraansicht befindet, die erfasst wird.
Jede Hilfe wird geschätzt.
OBJ-Dateien bereits Vertexinformation in 3D hat. Das ist ziemlich einfach auf einer Leinwand anzuzeigen. Sie möchten ein 3D-Netz aus einem 2D-Video generieren? Wie werden Sie Tiefeninformationen/Informationen der anderen Objektseite des Objekts erhalten? - Es ist möglich, die Umrisse eines Objekts über die Bildverarbeitung zu erhalten, obwohl Sie nur 2D-Informationen erhalten. – Smamatti
Es gibt eine interessante Anwendung namens Video-Trace, die erfordert, dass der Benutzer die Linien, die das Objekt umreißen, aber es nicht Echtzeit obwohl sehr clever bei der Interpolation Kanten, ähnlich gibt es Anwendungen für Kinect, Kantenerkennung für Gesten-Tracking durchführen, so denke ich Eine Anwendung, die Rahmen vergleichen kann, um Grenzen und Geometrien im Verlauf vieler Rahmen zu erkennen, könnte eine Richtung sein, die uns zu 3D-Koordinaten führen könnte, wenn bestimmte Fluchtlinien erkannt werden könnten oder die Bewegung eines Satzes verwandter Punkte voneinander abweicht. Viel mehr für mich zu lernen, egal – MyStream