Wie können neuartige Rendering-Technologien die Wahrnehmung und Immersion in Mixed-Reality-Anwendungen verbessern? Eine vielversprechende, aktuell stark wachsende Methode in der Computergrafik ist 3D Gaussian Splatting (3DGS). Sie ermöglicht hochrealistische, in Echtzeit darstellbare Rekonstruktionen realer Szenen auf Basis von Bild- oder Videoaufnahmen und eröffnet damit neue Perspektiven für visuelle Qualität und Interaktion in XR-Anwendungen.
Das Fachgebiet VWDS hat bereits zahlreiche Arbeiten im Bereich der Computergrafik veröffentlicht, insbesondere mit Fokus auf die besonderen Anforderungen von Mixed- und Mediated-Reality-Anwendungen.

 

Über klassische Fragestellungen hinaus stellt sich jedoch zunehmend die Frage, wie sich neue Rendering-Ansätze wie 3DGS im Vergleich zu etablierten Verfahren verhalten und welches Potenzial sie für immersive Mensch-Computer-Interaktion bieten.


Unsere aktuelle Studie greift diese Fragestellung auf und untersucht den Einsatz von 3D Gaussian Splatting im Vergleich zu herkömmlichem Video-Pass-Through. Im Rahmen eines experimentellen Anwendungsfalls analysierten wir distortionsreduzierte Darstellungen statischer Szenen. Dazu wurde eine realitätsnahe Tischszene mit verschiedenen Objekten vorbereitet, die von Probandinnen und Probanden mithilfe eines Head-Mounted Displays (Meta Quest 3) betrachtet wurde. Die Szene wurde dabei entweder mittels Video-Pass-Through oder als virtuelle Rekonstruktion auf Basis von 3DGS dargestellt.

Die Ergebnisse zeigen, dass 3D Gaussian Splatting ein hohes Potenzial für den Einsatz in Mixed-Reality-Anwendungen besitzt. Insbesondere auf Ebene der Darstellungsgenauigkeit eröffnen sich vielversprechende Perspektiven. Mit weiter verbesserten Rendering-Verfahren und optimierten Trainingszeiten könnte 3DGS zukünftig eine leistungsfähige Alternative für die Darstellung realer Szenen in der Computergrafik darstellen.

Die Studie wurde auf der IEEE International Symposium on Mixed and Augmented Reality(ISMAR) präsentiert. Die zugehörige Veröffentlichung finden Sie unter folgendem Link: https://doi.org/10.1109/ISMAR67309.2025.00131 


Darüber hinaus wurden auf derselben Konferenz zwei weitere Poster Paper vorgestellt. Diese befassen sich zum einen mit einem präventiven Datensatz sowie einer Voranalyse von Kopfbewegungen in statischen 3DGS-Szenen. Zum anderen wurde das intern entwickelte ARC-Framework um die Unterstützung von 3DGS-Darstellungen real aufgenommener Szenen erweitert. Der Ansatz ermöglicht eine schnelle Vor-Evaluierung ohne zusätzlichen Structure-from-Motion-Prozess.

Die Posterarbeiten wurden ebenfalls auf der ISMAR präsentiert und sind unter folgenden Links verfügbar: 


3DGS Kopfbewegungs-Preanalyse-Datensatz: doi.org/10.1109/ISMAR-Adjunct68609.2025.00235

ARC – 3DGS-Erweiterung: https://doi.org/10.1109/ISMAR-Adjunct68609.2025.00229