0

Ich habe erfolgreich zwei Punktwolken derselben Szene aus verschiedenen Kamerapositionen registriert. Farbwerte sind aufgrund von Änderungen der Lichtverhältnisse zwischen den beiden Positionen unterschiedlich. Ich würde gerne wissen, wie man eine intelligente Farbmischung zwischen zwei ausgerichteten Punktwolken durchführt, um eine einheitliche Farbe entlang des globalen Modells zu erhalten. Irgendeine Idee?Punktwolken-Farbmischung nach Registrierung

Ich schließe ein Capture, wo Sie sehen können, wie die Farbe in der Wolke auf der rechten Seite dunkler ist.

enter image description here

+0

was meinst du mit smart-coloring? Warum nicht eine der Wolken vor dem Registrierungsteil neu einfärben? – Vtik

+0

Was ich meine, ist eine intelligente Mischung, wie Alpha oder Pyramidal Blending in einer Standard-2D-Stitching-Aufgabe. Ich könnte eine der Wolken neu einfärben, aber wenn ich N lokale Wolken habe, brauche ich am Ende einen automatischen Prozess. Ich habe überlegt, eine Belichtungskompensation anzuwenden, da diese RGB-Änderungen auf Änderungen in der Szenenbeleuchtung zurückzuführen sind. Ich denke, das könnte die Lösung sein. – Finfa811

Antwort

0

Ich habe versucht, Bild Blending anzupassen Ansätze zur 3D-Punktwolken, aber es ist überhaupt nicht einfach, so dass ich angelegt, um eine einfachere Lösung, die mein Problem für den Moment gelöst.

Da Texturänderungen hauptsächlich durch Änderungen in der Szenenbeleuchtung aufgrund unterschiedlicher Kamerapositionen verursacht werden, sollte theoretisch nur eine Belichtungskompensation zwischen beiden Wolken gute Ergebnisse liefern. Ich habe mein Problem behoben, indem ich einen Standardansatz der 2D-Belichtungskompensation auf ein 3D-Szenario ausweite. Konkret ist nur ein gain compensation (Punkt 6 des Papiers) genug, wenn der Beleuchtungsunterschied niedrig genug ist.