Anzahl der Treffer: 33
Erstellt: Wed, 27 Mar 2024 23:06:05 +0100 in 0.0834 sec


Trier, Manuel;
Untersuchung der einzelnen Algorithmen des Structure from Motion Verfahrens hinsichtlich ihrer Parallelisierbarkeit. - 97 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2012

Der Prozess der Rekonstruktion von Kameradaten und 3D-Modellen aus Fotografien wird als Structure from Motion (SfM) bezeichnet. Dieser Vorgang ist in eine Reihe sequentiell ablaufender Algorithmen unterteilt, welche in sich ebenfalls sequentiell arbeiten. In dieser Bachelorarbeit werden zunächst die einzelnen Teilalgorithmen des Structure from Motion-Verfahrens vorgestellt und anschließend auf ihre Parallelisierbarkeit untersucht. Es werden auch bereits implementierte Versionen paralleler Algorithmen vorgestellt, und auf ihre Unterschiede zu den Originalalgorithmen hingewiesen. Als Zweites wird eine Pipeline vorgestellt, wie die einzelnen Algorithmen zu einem Structure from Motion-System vereint werden können. Dabei wird der Tatsache Rechnung getragen, dass die Bilderserien, welche von dem, an der Technischen Universität Ilmenau entwickelten robotergesteuerten Stereo-Vision Systems, aus Stereo-Bildpaaren bestehen.



Belz, Alexander;
Aufnahme von Bewegtbildern mit hohem Dynamikumfang. - 130 S. Ilmenau : Techn. Univ., Diplomarbeit, 2011

In dieser Arbeit wird ein neuer Ansatz zur Aufnahme von Bewegtbildern mit hohem Dynamikumfang (HDR) untersucht. Basierend auf der gleichzeitigen Aufnahme von örtlich variierenden Belichtungen und einer unregelmäßiger Abtastung kann die Aufnahme mit einem Sensor realisiert werden. Die bisher entstandenen Auflösungsverluste werden durch die Nutzung der frequenzselektiven Extrapolation (FSE) als Rekonstruktionsverfahren minimiert. - Für die Überprüfung des Ansatzes und den Vergleich mit anderen Interpolationen wurde eine Simulationsumgebung erstellt. Dabei konnte durch eine SNR-optimierte Gewichtung und eine Logarithmierung der Daten vor der Rekonstruktion ein gutes Grundsetup der FSE gefunden werden. Mittels subjektiver Beurteilung sowie Qualitätsmetriken wurde die Verbesserung gegenüber bestehender Verfahren ersichtlich. - Der zweite Themenbereich der Arbeit ist die Untersuchung der Komponenten für die Realisierung eines Demonstrators. Dieser soll durch Montage einer optischen Maske auf dem Sensor erstellt werden. Durch Messungen und Simulationen von kritischen Aspekten wie der Bildpunktgröße, Übersprechen, Beugungseffekten und dem Maskenabstand konnte festgehalten werden, dass der Aufbau eines Demonstratorsystems grundsätzlich möglich ist.



Porsche, Martin;
Vergleich von Texture-Mapping-Methoden für die Anwendung in Structure-from-Motion-Verfahren. - 85 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Das Ziel automatischer 3D-Rekonstruktion von Objekten über Computer Vision-Algorithmen wie Structure-from-Motion ist ein texturiertes Mesh. Dabei sollen die Texturen aus den vorliegenden Bildsequenzen extrahiert und völlig automatisch auf das Mesh gemappt werden. Dies wirft Fragestellungen hinsichtlich der Anwendbarkeit der zahlreichen Möglichkeiten zur Texturierung eines Meshes auf. Diese Bachelorarbeit bietet einen Überblick über verschiedene Texturierungsverfahren die diese Anforderungen erfüllen. Ziel ist außerdem die prototypische Umsetzung eines dieser Verfahren und Integration in ein vorliegendes System zur 3D-Rekonstruktion aus Bildsequenzen von unkalibrierten Kameras. Das umgesetzte Verfahren führt eine Rückprojektion der vertices eines Meshes in die Bildebene der Kameras durch. Die Lage der rückprojizierten vertices bestimmt dabei die Textur des Meshes. Optional kann das umgesetzte Verfahren auf einen Graph-Cut-Algorithmus und einen Algorithmus zur Extraktion von dreieckigen Flächen zurück greifen. Es ist eine Darstellung von untexturierten und texturierten 3D-Daten möglich. Zusätzlich ist eine Skalierung und Positionierung der 3D-Daten möglich. Es können Ausgabedateien von Bundler, Photosynth, PMVS2 sowie ASCII-formatierte ply-Dateien importiert werden. Die Import-Methoden wurden ebenfalls im Rahmen dieser Bachelorarbeit entworfen. Die Umsetzung erfolgte in der Programmiersprache C++. Die graphische Benutzeroberfläche wurde mit Qt erstellt. Zur Darstellung der 3D-Daten wird OpenGL verwendet. Zur Bearbeitung der Bildsequenzen und der Texturen wird auf die Programmbibliothek OpenCV zurück gegriffen. Zusätzlich wurden ein Wrapper-Skript für einen Hidden-Point-Removal-Algorithmus für MATLAB erstellt.



Kramer, Patrick;
Entwicklung eines Verfahrens zur automatischen Klangsynthese von Bassnoten unter Berücksichtigung typischer Spieltechniken des E-Basses. - 82 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2011

In dieser Diplomarbeit wird ein Algorithmus zur automatischen Klangsynthese von E-Bassnoten präsentiert, welcher auf einem physikalischen Modell einer elektrischen Bassgitarre beruht. Der Schwerpunkt der Arbeit liegt hierbei bei der Integration zehn typischer Spieltechniken des Instruments in das physikalische Modell. Hierzu werden die Spieltechniken in ihrem physikalischen Einfluss auf die Klangerzeugung analysiert und unterschiedliche Verfahren vorgestellt, mittels derer diese in das Modell eingearbeitet werden können. Die Klangqualität des Algorithmus wurde im Kontext eines Audiocoders in einem MUSHRA-Hörvergleichstest überprüft. Die Ergebnisse des Tests zeigen eine höhere Akzeptanz der Klangqualität des Synthesealgorithmus gegenüber anderer Kodierungsverfahren im Bereich der sehr niedrigen Bitraten. Dabei werden zusätzlich mittels des Syntheseverfahrens deutlich niedrigere Bitraten erreicht. In einem weiteren Hörtest wurde mithilfe des Syntheseverfahrens eine Wahrnehmungsgrenze für Frequenzschwankungen in E-Basstonsignalen eruiert. Diese Grenze wurde ermittelt, um die Frequenzmodulationsdetektion von Analyse- und Transkriptionsverfahren auf die menschliche Wahrnehmung abstimmen zu können.



Götze, Paul;
Untersuchung von Methoden zur Objektsegmentierung aus Stereobildpaaren nicht kalibrierter Kameras. - 92 S. : Ilmenau, Techn. Univ., Bachelor-Arbeit, 2011

Bei der 3D-Rekonstruktion von Objekten über Bildverarbeitungsalgorithmen wie Stucture from Motion treten bei der Auswertung von digitalen Bildsequenzen bzw. Stereobildpaaren eine Vielzahl nicht zum Objekt gehörender Punkte auf. Diese sogenannten Outliers können anhand einer vorangehenden Objektsegmentierung vermieden werden. Die vorliegende Arbeit untersucht Methoden zur automatischen Segmentierung eines Objektes aus Stereobildsequenzen. Eine Bildsequenz stellt dabei eine Umfahrung des zu segmentierenden Objektes mit einem Stereokamerapaar dar. Es werden zwei Ansätze zur Segmentierung verfolgt und prototypisch als OpenCV-Implementierung umgesetzt. Nach einem Überblick über mögliche Segmentierungsmethoden werden das GrabCut-Verfahren, die Wasserscheiden-Transformation und GVF-Snakes auf ihre Eignung untersucht. Das erste System nutzt die aus der Bildsequenz ermittelten Bewegungsinformationen. Hierbei wird der optische Fluss ausgewertet und automatisch eine Ausgangskontur erstellt. Anschließend wird eine Segmentierung über das GrabCut-Verfahren vorgenommen. Im zweiten System erfolgt eine Segmentierung über die Auswertung der Tiefeninformationen aus den Stereoaufnahmen. Eine grobe aus der Disparitätskarte ermittelte Maske wird hierbei über Gaußsche Mischverteilung verbessert. Es erfolgt eine Untersuchung der Eignung der Wasserscheiden-Transformation und der GVF-Snakes als Methoden zur Verbesserung der Segmentierungsergebnisse. Abschließend werden Probleme der Systeme aufgezeigt und Möglichkeiten zur Verbesserung sowie alternative Herangehensweisen vorgeschlagen.



Wu, Qiong;
Untersuchung von Stereomaskierungsansätzen des menschlichen Auges. - 104 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2011

Diese Arbeit befasst sich mit der Untersuchung des Stereomaskierungseffekts des menschlichen Auges. Das Ziel dieser Arbeit ist es, die Präzision der Tiefenwahrnehmung in Abhängigkeit verschiedener Ortsfrequenzen zu analysieren. Dazu werden virtuelle Testobjekte über ein sogenanntes Head-mounted Display präsentiert und bewertet. Als theoretische Grundlagen dienten die selektiven Ortsfrequenzkanäle im menschlichen visuellen System (Blakemore/Campbell, 1969), die Theorie der Ortsfrequenzkanäle (Wilson//Mcfarlane/Phillips, 1982) und die Entdeckung der Veränderung der wahrgenommenen Tiefe mit der Beeinflussung der Ortsfrequenz (Blakemore,1970). Die Untersuchung ermittelt die Präzision der Tiefenwahrnehmung bei verschiedenen Objekttiefen wenn das Objekt durch verschiedene Ortsfrequenzen beeinflusst wird. Der Ortsfrequenzeinfluß wird ermittelt, indem bei gleicher Objekttiefe der dargestellte Ortsfrequenzbereich variiert. Es wurde ein Sehtest mit 10 Testpersonen durchgeführt. Zusammenfassend kann festgestellt werden, dass die Stereomaskierungseffekte im menschlichen visuellen System existieren. Die Präzision der Tiefenwahrnehmung ist abhängig von der dargestellten Tiefe und der Ortsfrequenz. Es gibt die Ortsfrequenzkanäle für die Tiefenwahrnehmung.



Niehaus, Marco;
Konzeption und prototypische Umsetzung eines robotergesteuerten Stereo-Vision-Systems zur 3D-Rekonstruktion statischer Objekte. - 118 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Wie aktuelle Entwicklungen im Bereich Computer Vision darlegen, steigt der Bedarf an Algorithmen und Verfahren zur automatisierten, dreidimensionalen Rekonstruktion von Objekten weiter an. Systeme wie Google Street View, Photosynth oder der Voodoo Kamera Tracker zeigen die Anwendung verschiedenster Computer Vision Technologien in neuen Produkten. Eine wichtige Rolle spielt dabei die Tiefenrekonstruktion aus zweidimensionalen Bilddaten. Dies wirft Fragestellungen hinsichtlich der zu verwendenden Geräte und Aufzeichnungsverfahren auf und inwieweit sich diese in ein zugrundeliegendes Softwareframework integrieren lassen. Dabei sind grundsätzliche Problemstellungen zur dreidimensionalen Modellrekonstruktion aus Bildsequenzen zu lösen. In dieser Arbeit werden Computer Vision Technologien zur dreidimensionalen Rekonstruktion mit einer mobilen Roboterplattform und integriertem Stereo-Vision-System kombiniert. Prototypische Implementierungen für die Robotersteuerung über Bluetoothsowie die Nutzung von Roboter-Sensordaten werden vorgestellt. Dabei kommen asynchrone und parallele Softwaretechniken, basierend auf dem Microsoft Robotics Developer Studio, zum Einsatz. Weiterhin wird die Steuerung von Schwenk- und Neigevorrichtungen für das Stereo-Vision-System in die Software integriert. Es werden Lösungen zur automatisierten Bildsequenzaufzeichnung sowie deren Verarbeitung über eine "Structure from Motion" Implementierung aufgezeigt. Die daraus abgeleiteten Daten werden schlussendlich in ein dreidimensionales Oberflächennetz (Mesh) überführt.



Schubert, Benjamin;
Entwicklung eines parametrischen Instrumentencoders für Pianosignale. - 96 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

In dieser Arbeit wird ein Audiocodierungsverfahren für Pianosignale präsentiert, das auf einem physikalischen Pianomodell basiert. Anstatt der Codierung der Wellenform des Signals realisiert dieses Verfahren die Kompression durch Extraktion relevanter Parameter im Encoder, mit deren Hilfe das Signal im Decoder mittels des physikalischen Modells resynthetisiert wird. Schwerpunkt der Arbeit ist neben dem physikalischen Modell auch die Entwicklung und Implementierung der Algorithmen zur Parameterextraktion sowie die Zusammenfassung alle Komponenten zu einem lauffähigen Coder. Zur Überprüfung der Leistungsfähigkeit des entwickelten Pianocoders wurde ein Hörtest durchgeführt. Die Ergebnisse zeigen einerseits eine nicht ausreichend konstante Qualität des Pianocoders über den gesamten Tonhöhenbereich im Vergleich zu einem gängigen Transformationscoder. Andererseits konnte eine besser Qualität des Pianocoders, verglichen mit einem anderen spezialisierten Instrumentencoder bei ähnlichen Bitraten festgestellt werden.



Schüller, Dennis;
Analyse und Optimierung fotorealistischer Bildgenerierung für funktionale Steuergerätetests. - 107 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

Zum Prozess der Qualitätssicherung von Fahrzeugen gehört unter anderem das Testen der Steuergeräte. Die Verifikation und Validierung dieser elektronischen Bauteile verlangt die Stimulation von Steuergeräteeingängen mit simulierten Sensordaten aller Art um die Reaktionen des Systems zu prüfen und im Rahmen von Hardware-in-the-Loop Tests in die Umgebungssimulation zurückzuführen. Die Stimulation umfelderfassender Videosensoren, welche zunehmend bei kamerabasierten Fahrerassistenzsystemen verwendet werden, erfolgt durch simulierte, mit Hilfe von Computergrafiken visualisierten, Umgebungs-Szenarien. Diese haben, um eine abschließende sicherheitsrelevante Absicherung der Steuergerätefunktionalität gewährleisten zu können, den Anspruch auf eine fotorealistische Darstellungsqualität. Im Rahmen dieser Arbeit wird ein Konzept entwickelt und prototypisch realisiert, welches eine automatisierte Bewertung der fotorealistischen Darstellungsqualität dieser computergenerierten Umgebungssimulation ermöglichen soll. Diese Bewertung soll die Qualität der Umgebungssimulation aus der Sicht eines kamerabasierten Steuergeräts bzgl. definierter Qualitätsmerkmale mit Hilfe eines numerischen Wertes angeben. Im Vordergrund der Algorithmenentwicklung steht eine möglichst einfache Interpretierbarkeit der Bewertung durch den Menschen. Das Bewertungsergebnis wird daher aufgeschlüsselt in sehr wenige Qualitätsmerkmale. Eine semantische Bedeutung bzw. hohe Aussagekraft der Merkmale ermöglicht zudem eine präzisere Angabe des möglichen Optimierungspotentials. Die Möglichkeit zur Optimierung derjenigen Darstellungsparameter der Simulation, welche die größten Unterschiede zur realen Darstellung aufweisen ist somit gewährleistet. Um dies zu erreichen werden Unterschiede in 3D-Objektfarbe, 3D-Objektoberflächenstruktur sowie 3D-Objektoberflächenform zwischen realen und simulierten sensorstimulierenden Daten durch eine Analyse des Videoaufnahmeprozesses und der Computergrafik-Pipeline herausgearbeitet. Damit eine objektive Qualitätsbewertung aus Sicht eines kamerabasierten Steuergeräts gewährleistet werden kann, werden anschließend existierende Möglichkeiten vorgestellt mit denen diese definierten Unterschiede durch eine bildverarbeitende Merkmalsextraktion erfasst und miteinander verglichen werden können. Hierzu werden Vorgehensweisen und Algorithmen aus verschiedenen Anwendungsgebieten analysiert. Dies sind insbesondere Klassifikationsverfahren zur automatisierten Unterscheidung zwischen Computergrafik und realem Bild und Image Retrieval-Verfahren. Innerhalb des entwickelten Gesamtkonzepts werden Bildsequenzen aus den Videos realer Testfahrt-Umgebungen mit Bildsequenzen der simulierten Testfahrt-Umgebung automatisiert bzgl. oben genannter Qualitätsmerkmale verglichen. Hierzu wird jedes Einzelbild separat verarbeitet. Der Bildinhalt wird bzgl. Homogenität der "Szenenkomplexität" eingeteilt um die Messergebnisse aussagekräftiger zu machen. Somit ergeben sich die Bereiche "Himmel", "Straße" und "Straßenrand", welche separat untersucht werden. Der Bildinhalt innerhalb eines zu analysierenden Bereichs wird anschließend mittels Mean-Shift-Segmentierung in homogene Regionen eingeteilt, von denen im Weiteren jeweils Farb-, Kontur- und Textureigenschaften extrahiert werden. Diese Merkmale erfassen die o.g. Unterschiede zwischen den realen und simulierten 3D-Objekten. Aus der Menge an Regionen-Messwerten werden für jedes Einzelbild Histogramme der Merkmalsausprägungen für jedes Merkmal generiert. Somit ist eine Charakterisierung des Bildinhalts auf Objektebene erreicht. Damit nicht lediglich Einzelbilder sondern die kompletten Videoaufzeichnungen realer und simulierter Testfahrt-Umgebungen bewertet werden können, erfolgt die Erzeugung von Bildsequenz-Merkmalshistogrammen (gemittelte Einzelbild-Merkmalshistogramme). Ein Vergleich dieser Bildsequenz-Merkmalshistogramme mittels Earth Mover's Distance führt zu den gewünschten numerischen Bewertungsfaktoren. Diese beschreiben die Ähnlichkeit der Merkmalsausprägungen bzgl. Objektfarbe, Objektoberflächenstruktur und Objektform zwischen realer und simulierter Testfahrt-Umgebung. Implementiert wurde eine grafische Benutzeroberfläche, welche es dem Anwender ermöglicht Analyseparameter zu definieren und anschließend einen Vergleich der Bildsequenzen bzgl. o.g. Qualitätsmerkmale zu starten. Der Anwender erhält Feedback durch Visualisierung des aktuellen, in Verarbeitung befindlichen, Einzelbildes, des segmentierten Regionenbildes und der aktuell analysierten Region. Nach Beendigung der Verarbeitung wird die Ähnlichkeit der Qualitätsmerkmale zwischen Simulation und Realität in Form von Bewertungsskalen angezeigt.



Susa, Tim;
A realtime digital simulation of an analog distortion pedal: the Fuzz Face. - 85 S. : Ilmenau, Techn. Univ., Diplomarbeit, 2010

In dieser Diplomarbeit wurde die elektronische Schaltung des so genannten "Fuzz Face" Gitarrenverzerrerpedals betrachtet und als digitale Echtzeitsimulation implementiert. Dieser auf Transistoren basierender Gitarreneffekt weist höchst nichtlineare Eigenschaften auf. Der Prozess der Signalverzerrung unterliegt einer Eingangssignal abhängigen Verstärkung und Amplitudenbeschneidung kombiniert mit nachfolgender Kompression. Die indivduellen Komponenten der Schaltung wurden analysiert, diskretisiert und als digitale Module wieder zusammen gesetzt. Die größte Herausforderung bestand in der Erkennung entsprechender nichtlinearer Modelle, die für den typischen Klang verantwortlich sind. Bestehende Ansätze bauen auf Modellen auf, welche das Eingangssignal durch sogenanntes "Waveshaping" symmetrisch umformen. Andere Ansätze widmen sich nichtlinearen Differentialgleichungssystemen deren Lösung sich als rechenintensiv herausstellte. Der in dieser Arbeit verfolgte Ansatz beachtet die Asymmetrien der "Fuzz Face" Transfercharakteristika. Zusätzlich werden die Effekte der Spannungsgegenkopplung gefolgt von einer Signalkompression mit einbezogen. Zum Abschluss wird ein komparativer Hörtest durchgeführt, um die Ähnlichkeit der digitalen Echtzeitsimulation zum analogen Vorbild auf zu zeigen.