Forschung
Laufende Projekte
2D-/3D-Bildverarbeitung


Das Forschungsprojekt Engineering for Smart Manufacturing (E4SM) hat zum Ziel, innovative Methoden zur Entwicklung von Assistenzsystemen für die intelligente Fertigung in industriellen Szenarien auf der Grundlage des maschinellen Lernens zu untersuchen. Im Rahmen von Industry 4.0 sollen insbesondere die Anforderungen und Besonderheiten für die Fertigung in kleinen und mittleren Unternehmen (KMU) betrachtet werden. Die im Rahmen dieses Projekts zu erforschenden und zu entwickelnden Methoden sollen auf zwei industrielle Szenarien angewandt werden: Das vorrichtungsfreie Laserstrahlschweißen und die variantenreichen Monatgeprozesse.
Der Schwerpunkt liegt auf integrierten und ganzheitlichen Engineering-Methoden für die Anwendung von lernbasierten Assistenzsystemen in der Fertigung. Dazu sollen entwickelte Teillösungen in den wichtigen Kernbereichen kollaborative Assistenzrobotik, latenzarme 3D-Sensornetzwerke, Management und Analyse heterogener Daten aus industriellen Fertigungsprozessen sowie IT-Sicherheit und IT-Sicherheit in einen ganzheitlichen Software-Engineering-Prozess integriert werden. Darüber hinaus soll die Einbeziehung von Industriepartnern dazu beitragen, den Einsatz von maschinellen Lern- und Assistenzsystemen für KMU projektierbarer und kontrollierbarer zu machen, um die Akzeptanzschwelle zu senken.
Projekthomepage: https://www.e4sm-projekt.de/
Bewilligungszeitraum: 01.05.2019 bis 30.04.2023, Carl Zeiss Stiftung,
Aktenzeichen der Mittelzuweisung durch die Carl-Zeiss-Stiftung: P2017-01-005


Titel des Verbundvorhabens:
Entwicklung eines Messsystems zur Bestimmung des Volumens von Schwachholz als multifunktionale Erweiterung für Harvester - , Fäll- und Fällsammleraggregate - OBioM.
Das Primärziel des Verbundvorhabens ist die Entwicklung eines optischen Kamera- und digitalen Datenerfassungssystems zur verfahrensimmanenten Erhebung und Speicherung des Volumens von geerntetem Schwachholz. Diese Erntemaßnahmen erfolgen zumeist in Jungwaldpflegemaßnahmen mit kranbestückten Forstspezialmaschinen. Zum Einsatz kommen sogenannte Fäll- oder Fällsammlerköpfe, mit denen man die Bäume abschneiden und ablegen kann. Im Gegensatz zum Harvesteraggregat können die Bäume weder entastet, noch vermessen, noch zu Sortimenten ausgehalten werden Die Messung wird in den Prozessabschnitt des Absägens und Prozessierens integriert. Das Ausgabeformat ist das Holzvolumen in Kubikmeter und damit klar definiert und messbar. Die Entwicklung des Messsystems trägt zur Steigerung der Wettbewerbsfähigkeit Thüringens in Bezug auf die Ressourceneffizienz des nachwachsenden und heimischen Holzes bei. Für das optische Messystem wird eine Messmethodik entwickelt und evaluiert, die den Anforderungen unter wissenschaftlichen und technischen Gesichtspunkten gerecht wird. Das Ziel bei der Entwicklung des Bildverarbeitungssystems ist neben der Vermessung der Querschnittsflächen der Hölzer als Grundlage der Volumenbestimmung die Erfassung zu erwartender Störgrößen wie Eis, Erd- und Schmutzbedeckung durch eine Spreizung des Informationsgehalts so früh wie möglich zu detektieren und zu eliminieren.
Zusätzlich wird das Ziel verfolgt, sekundäre Messgrößen abzubilden, wodurch eine Steigerung der Informationsextraktion und dadurch ein Zugewinn an Merkmalen erreicht werden kann. Aus dem so expandierten Ergebnisraum lassen sich zusätzliche qualitative und quantitative Merkmale – wie etwa Feuchtegehalt, Schädlings- und Pilzbefall – ableiten und zusätzlich dem eigentlichen Messergebnis der Querschnittsfläche ausgeben. Diese Merkmale sind nicht unmittelbar für die Bestimmung der Biomasse notwendig, eröffnen jedoch als Sekundärergebnis völlig neue Möglichkeiten in Hinblick auf die Digitalisierung in forstwirtschaftlichen Prozessen.
Das Verbundvorhaben wird von der Thüringer Aufbaubank gefördert: Vorhabensnummer: 2019 FE 9027; Verbundvorhabensnummer: 2019 VF 0009
Laufzeit: 10.11.2020 - 31.03.2023


Echtzeit-3D-Multikamerainspektion für Elektronikbaugruppen
Für die Qualitätskontrolle großformatiger Leiterkarten bieten sich insbesondere arraybasierte System an. Vorteil dieser Systeme ist die Einsparung einer Bewegungsachse durch eine matrixorganisierte Kameraanordnung. Derzeit arbeiten die meisten Systeme für einfache Erkennungsaufgaben bei AOI Systemen im 2D Bereich. Eine Erweiterung dieser Systeme könnte zusätzliche Vorteile bei der Inspektion ergeben. So könnten Fehlbestückungen durch die Hinzunahme der dritten Dimension besser automatisch erkannt werden. Hier setzt der Forschungsansatz der TU-Ilmenau an. Durch die Einbringung von zusätzlichen Informationen beispielsweise durch Musterprojektionen oder bewegten Scanlinien sollen die 3D Informationen in Kombination mit den Kamerasystemen errechnet werden. Ziel ist es auch kostengünstige Projektionssysteme aus dem Konsumermarkt zu evaluieren und gegebenenfalls einzusetzen umso eine höhere Abtastdichte zu erreichen. Durch zeitlich modulierte Scanverfahren sollen Bildraten für eine Fläche von 450x550 mm² von ca. einer Sekunde erreicht werden.
Die Förderung erfolgt durch das Bundesministerium für Wirtschaft und Energie im Rahmen des Programms „Zentrales Innovationsprogramm Mittelstand (ZIM)“.
Förderkennzeichen: KK5007909ER1
Laufzeit: 01.05.2021 - 30.04.2023



Das Projekt Quantum Hub Thüringen (QHubTh) behandelt neue Forschungs- und Umsetzungsstrategien für Quantentechnologien. Im Rahmen des Teilprojektes der Technischen Universität Ilmenau, Fakultät Maschinenbau, Fachgebiet Qualitätssicherung und Industrielle Bildverarbeitung zur Quantenbildgebung - Qi3.4, werden neuartige Bildgebungssysteme, welche auf speziell manipulierten Photonen basieren, untersucht und dabei Verbesserungspotenziale hinsichtlich der Detektoren ausgewertet. Auf Basis bestehender Modellansätze werden hierfür Methodiken erforscht, um quantenoptische Parameter modellbasiert zu ermitteln.
Die Fähigkeit, quantenphysikalische Eigenschaften wie Korrelation in Position und Impuls oder der Photonenzahlcharakteristik zu bestimmen, sind essenziell, um neue Charakterisierungsmethoden für diverse Kameratypen wie EMCCDs, ICCDs, sCMOS oder SPAD-Arrays zu entwickeln. Dafür wird ein Prüfstand entwickelt, welcher anhand neuer Methodiken eine Evaluierung des Anwendungsspektrums und eine weitere Ableitung von Optimierungsstrategien für den zukünftigen Einsatz von Bildgebungssystemen in der Quantenbildgebungermöglicht.
Durch enge Zusammenarbeit mit weiteren Arbeitspaketen (AP) des Quantum Hub Projektes wird eine solche quantentechnische Sensorevaluierung erreicht, um im endgültigen Ziel des Projektes die Bildgebungsprozesse zu stabilisieren und zu optimieren. Eine Optimierung der neuartigen Quantenbildgebungsmethoden aus anderen AP wird so über eine Rückführung der hier bestimmten optimalen Betriebseinstellungen der Detektoren ermöglicht.
Gefördert durch das Thüringer Ministerium für Wirtschaft, Wissenschaft und digitale Gesellschaft sowie die Thüringer Aufbaubank
Laufzeit: 01.05.2021 - 31.12.2023
Multimodale und multispektrale Bildverarbeitung



Im Mittelpunkt des Projektes "KI für die Fusion und Verarbeitung multimodaler Bilddatenströme und A priori-Daten (KIMBA)" stehen industrielle Anwendungen der Qualitätssicherung und die hierbei eingesetzten vielfältigen, an den Objekteigenschaften orientierten multimodalen Bildgebungsverfahren.
Diese bildhaften Informationen werden derzeit im wesentlichen regelbasiert für Erkennungsaufgaben und zur Entscheidungsfindung genutzt, wobei auch heute schon neuronal motivierte Verfahren der Datenverarbeitung genutzt werden. Änderungen der Bildgebung und / oder der auszuwertenden Bildobjekte erfordern jedoch immer große Anpassungsaufwände der vorhandenen Erkennungslösung eines Prüfsystems. Die Verbesserung der Vertrauenswürdigkeit von Prüfentscheidungen ist zudem eine wesentliche offene Fragestellung, die auch die weitere Verbreitung der KI in diesen Anwendungen bislang hemmt.
Zur Realisierung adaptiverer, robusterer Erkennungslösungen durch bessere Ausschöpfung multimodaler bildhafter Informationen sollen im Vorhaben KIMBA moderne Methoden der KI eingesetzt werden, die die Fragen
- Multimodale Datenauswahl und -fusion,
- Erkennung von Nachlernbedarfen, Verbesserung der Vertrauenswürdigkeit von Prüfentscheidungen
- Umsetzung automatisch nachlernener Systeme
in den Mittelpunkt stellen. Die Ergebnisse müssen die besonderen Anforderungen industrieller Anwendungen (Verfügbarkeit und Nutzung von a priori-Wissen, Gestaltung von einfachen Belehrungsprozessen, Laufzeiteffizienz und Ressourcenbedarf algorithmischer Lösungen) berücksichtigen.
Laufzeit: 01.04.2021 - 30.06.2023


Ziel des Vorhabens CONTURA ist die Entwicklung eines komplexen und effizient einsetzbaren Systems zur vollautomatischen Zustandserfassung von forstlichen Wegeanlagen (Fahrbahndecke und Lichtraumprofil), Zuordnung in Schadenkategorien und Ableitung notwendiger Maßnahmen einschließlich deren Kostenkalkulation. Relevante Bereiche für die Beschaffenheit sind der Wegekörper (Kronenbreite) mit Fahrbahn und Seitenstreifen, die sich seitlich anschließenden und Wasser ableitenden Grabensysteme, die Bewuchs tragenden Seitenbereiche (z.B. Böschungen) sowie das gesamte für die Wegebenutzung relevante Lichtraumprofil. Das System soll vollautomatisch schon bei der Befahrung eines Forstweges die Informationen über die Beschaffenheit in einem Datensatz speichern. Infolge dessen wird ein digitaler Zwilling als eine Art „Momentaufnahme“ des realen Objektes mit den entsprechenden, übertragbaren Attributen erstellt. Prinzipiell besteht der dem digitalen Zwilling zugehörige Datensatz aus einer Kombination von 3D Sensordaten von optischen Aufnahmesystemen sowie Daten aus einem geographischen Informationssystem (GIS). Mit Hilfe der Daten wird anschließend ein dem Zwilling inhärentes zweites künstliches neuronales Netz trainiert, um Instandhaltungsmaßnahmen aus dem Datenmassiv ableiten zu können. Neben dem sofortigen Zugriff auf Zustandseigenschaften des Waldweges bei Bedarf werden somit durch Nutzung des digitalen Zwillings Analysen in Form von Machbarkeitsuntersuchungen und Variantenstudien zu in Planung befindlichen Holzerntemaßnahmen, bis hin zu deren Simulation möglich. Eine Simulation könnte so beispielsweise die Nutzung anderer Wege - welche ebenso als digitaler Zwilling vorliegen - durchspielen, und somit Aussagen über Wirtschaftlichkeit, Beschädigungspotential und Aspekte des Naturschutzes liefern. Unter vorzugebenden Rand- bzw. Anfangsbedingungen kann dadurch ein Optimum zur Nutzung eines Wegenetzwerkes virtuell ermittelt und in digitaler Form an die in die jeweilige Maßnahme integrierten Maschinen übermittelt werden. Als Gesamtergebnis steht Forstbetrieben und Waldbesitzern erstmalig ein Planungstool zur Kalkulation von Instandsetzungsmaßnahmen, Refinanzierungsberechnungen und für die direkten Planungen der Holzernte hinsichtlich Logistik und möglichem Technikeinsatz zur Verfügung, was für eine nachhaltig wirkende Kapitalerhaltungsstrategie und ein Maximum an Naturschutz unabdingbare Voraussetzung ist.
Gefördert durch das Bundesministerium für Ernährung und Landwirtschaft, Projektnummer: 2220NR061
Projektträger: Fachagentur Nachwachsende Rohstoffe e.V.
Laufzeit: 01.04.2021 - 31.03.2024


Das Primärziel des Projektes NEON ist die Entwicklung eines multimodalen 3D-Kamerasystems für die robuste Schätzung von Vitalparametern. In diesem Kamerasystem soll die Hochgeschwindigkeits-3D-Bildgebung mit der Farbbildgebung, der multispektralen Bildgebung und der Thermografie kombiniert werden, um multimodale 3D-Bilddaten in Echtzeit zu generieren. Auf Basis der multimodalen 3D-Bilddaten sollen Vitalparameter wie Herzschlagfrequenz, Atemfrequenz, Sauerstoffsättigung, Körpertemperatur etc. abgeleitet werden. Diese Vitalparameterschätzung soll eine hohe Robustheit gegen typische Störungen aus klinischen und häuslichen Umgebungen aufweisen, dafür sind sowohl physikalisch-basierte als auch algorithmische Ansätze und Methoden zu erarbeiten. Darüber hinaus sind die Einflüsse der Hautfarbe auf die Vitalparameterschätzung zu untersuchen und es sind mögliche Ansätze mithilfe der Multispektraltechnik oder der Bildgebung im erweiterten Spektralbereich zur Kompensation der Einflüsse der Hautfarbe zu erarbeiten.
Zusätzlich ist aus dem Funktionsdemonstrator ein kompakter modularer multimodaler Bildsensor zu entwickeln. Dabei wird ein hoher Grad der Miniaturisierung und Modularität des Sensorkopfs hinsichtlich der Verwendung in klinischen und häuslichen Umgebungen angestrebt. Zudem ist eine irritationsfreie aktive Beleuchtung zu realisieren. Weil die simultane Verwendung der 2D-Kameras in verschiedenen Spektralbereichen bzw. Bildgebungsmodalitäten eine Fusion multimodaler 2D-Bilddaten erfordert, müssen die geometrischen Parameter dieser Kameras durch Kalibrierung ermittelt werden. Diesbezüglich sind Ansätze zur geometrischen Kalibrierung des multimodalen Bildsensors zu erarbeiten und untersuchen. Dafür notwendig ist die Gestaltung eines spezifischen Kalibriertargets, das bei allen Kameras erkennbar ist.
Projektpartner: Ruhrlandklinik (RLK), Universität Duisburg-Essen (UDE)
Laufzeit: 01.07.2021 - 30.06.2024
Gefördert durch die Deutsche Forschungsgemeinschaft (DFG), Projektnummer: 458611451.


Bauteile für Technologien zur Energierückgewinnung, Rektifikationsprozesse und/oder Umwelttechnik beispielsweise Katalysatoren bestehen zum Teil aus mehreren Lagen von strukturierten Folien mit Wandstärken von < 200 µm. Eine Effizienzsteigerung bei der Energierückgewinnung ist u.a. durch eine Reduzierung der Wandstärke erreichbar. Derzeit wird die minimal erreichbare Wandstärke durch die eingesetzte Verbindungstechnologie (u.a. Kleben) begrenzt. Das Vorhaben setzt sich zum Ziel, mehrdimensionale und strukturierte Folienstapel stoffschlüssig zu verbinden, um eine Reduzierung der Wandstärke zu erreichen und die Taktzeit bei der Herstellung solcher Stapel zu senken. Dabei steht die Entwicklung eines bildunterstützten laserbasierten Fügeprozesses im Zentrum, um dieser Problemstellung mittels Strahlschweißen zu begegnen. Der Fokus ist gerichtet auf Materialien mit geringem Absorptionsgrad im IR-Bereich und hoher Wärmeleitfähigkeit bei Folienstärken von < 200 µm. Um die hohen Anforderungen an den Fügeprozess zu gewährleisten, wird durch einen örtlich/zeitlich schnell veränderlichen Energieeintrag eine sichere Anbindung der Kontaktflächen im Vergleich zum einfachen Punktschweißen erreicht. Die Bestimmung der verdeckt liegenden Kontaktpunkte erfolgt durch eine multimodale bildgebende Sensorik (3D + Wärmebild) mit dem Ziel einer exakten Bestimmung der Soll-Schweißpunkte. Die angestrebten Ergebnisse stellen vor allem für kleine und mittelständische Unternehmen (KMU) neue Erkenntnisse und Entwicklungsmöglichkeiten zur Verfügung. So wäre eine erfolgreiche Überführung der Technologie in einen automatisierten Coil- (u.a. Rotationswärmetauscher) oder Stapelprozess (u.a. Strukturpackungen) ein Alleinstellungsmerkmal. Dadurch kann den KMU eine teilweise Kompensation des schwindenden Wettbewerbsvorteiles ermöglicht werden. Diese ergibt sich aus einer wissenschaftlich abgesicherten Entwicklung einer Prozessstrategie zum Schweißen von mehrdimensionalen und strukturierten Folienstapeln, sowie einer Echtzeit-Bestimmung der Soll-Schweißpunkte.
Projektpartner: ifw Jena - Günter-Köhler-Institut für Fügetechnik und Werkstoffprüfung GmbH
Projektlaufzeit: 01.11.2021 – 29.02.2024
Gefördert vom Bundesministerium für Wirtschaft und Energie



Ziel des Projektes ist es, durch den Einsatz neuester Bildsensortechnologien eine breitbandigere spektrale Abtastung beginnend vom sichtbaren Wellenlängenbereich (VIS, 400 - 700 nm) bis in den kurzwelligen Infrarotbereich (SWIR , 700 - 1650 nm+) abzudecken. Hierdurch wird eine Beurteilung chromatischer Eigenschaften gemeinsam mit langwelligen Spektralinformationen kombiniert. Insbesondere die Farbrepräsentation mit gleichzeitiger Abtastung beispielsweise der Wasserabsorbtionslinie bei 1450 nm sind für viele Anwendungen im Bio- Forst- oder Lebensmittelbereich extenziell. Hierfür mussten bisher mehrere Kamerasysteme miteinander kombiniert werden da aktuell keine monolithischen Sensoren für den benötigten Abtastbereich von 400 nm - 1650 nm+ zur Verfügung standen. Um die spektrale Separierung zu erreichen sollen im geplanten Projekt vollflächige Spektralfilter genutzt werden, die in das neue Multispektralkamerasystem sequenziell eingeschwenkt werden können und so eine hohe Flexibilität des Kamerasystems ermöglichen. Aufgrund typischer Spezifikationen des Auflagemaßes für Objektive stellt dies Forderung eine zentrale Forschungsfrage im Projekt. Weiterhin führt das stark nichtlineare Verhalten von typischen optischen Gläsern zu Problemen der chromatischen Aberrationen. Hierfür soll eine geeignete Methode gefunden werden die unterschiedlichen Bildorte über diesen breiten Abtastbereich mit hoher Bildgüte abzubilden. Neben den optisch-mechanischen Herausforderungen des Projektes muss zusätzlich eine effiziente Thermostatierung des Sensors sichergestellt werden, um gerade im langwelligen Bereich einen hohen Dynamikbereich abzusichern. Hierfür werden verschiedene thermische Konzepte untersucht und bewertet die dann in einen Demonstrator der Multispektralkamera MK1650+ einfließen werden.
Das vom Freistaat Thüringen geförderte Vorhaben wurde durch Mittel der Europäischen Union im Rahmen des Europäischen Fonds für regionale Entwicklung EFRE und von REACT-EU kofinanziert.
Das Verbundvorhaben wird von der Thüringer Aufbaubank gefördert: Projektnummer: 2021 FE 9001; Verbundvorhabensnummer: 2021 VF 0001
Bewilligungszeitraum: 01.01.2022 bis 30.06.2023


Ausgehend vom gemeinsamen Gesamtziel des Innovationsbasisprojekts „MoSys“, der Entwicklung und Evaluierung neuartiger multimodaler Bildgebungssysteme (siehe Verbundvorhabenbeschreibung MoSys), die insbesondere durch die Entwicklung verschiedener Module und deren Verknüpfung zu verschiedensten Sensoren das Erschließen von System- und Applikationsmärkten in bisher ungekannter Qualität ermöglichen, müssen relevante Module zur Realisierung und Verknüpfung ausgewählter Systemtechnologien von ausgewählten Partnern erarbeitet werden. Die Entwicklung grundsätzlicher Methoden und die Realisierung der technischen Grundfunktionalität der zu entwickelnden Systeme werden im Innovationsbasisprojekt IP erarbeitet.
Die TU Ilmenau adressiert unter Einbringung ihrer Bildverarbeitungs- und KI-Kernkompetenzen sowie der Erkenntnisse bei Entwicklung, Umsetzung und Anwendung von Methoden und Algorithmen zur Sensor-/Systemcharakterisierung der letzten Jahrzehnte hier insbesondere komplexe softwareseitige und algorithmische Aufgabenstellungen im Verbund sowie die Erforschung und Entwicklung grundlegender Methoden zur multimodalen Datenanalyse, wie neuartige Methoden für:
- multispektrale und multisensorielle Kalibrier- und Korrekturverfahren,
- multimodale echtzeitfähige Datenverarbeitung, -und -fusion sowie
- eine multimodal angepasste und optimierte KI-Algorithmik.
Ergänzend dazu entwickelt die TU Ilmenau grundlegende Methoden zur Sensorcharakterisierung von im Vorhaben durch andere beteiligte Partner entwickelten Sensoren.
Im Rahmen des TUI-Teilvorhabens „MoDa“ ist die TUI an der Realisierung verschiedener, nachfolgend genannter und in der Verbundvorhabenbeschreibung aufgeführter Softwaretechnologie-Module zur Datenverarbeitung und Datenanalyse maßgeblich beteiligt: M12 – FPGA: FPGA-basierte Datenvorverarbeitung für mehrere Detektoren, M14 – Kalibrierbaukasten: Methodenbaukasten zur Kalibrierung und Datenfusion multimodaler Sensoren und M15 – Datenanalyse / KI: optimierte KI-Algorithmik für die Anwendung auf hochdimensionalen multimodalen und multispektralen Daten.
Die zu entwickelnden grundlegenden algorithmischen und softwaretechnologischen Lösungen sind für alle im RUBIN-AMI-Verbund geplanten Systeme und Demonstratoren von hoher Relevanz, gehören zum elementaren Bestandteil des Verbundes und haben daher nachhaltigen Einfluss auf die Realisierung eines erfolgreichen Projektabschlusses.
Bewilligungszeitraum: 01.04.2022 bis 31.03.2025
Gefördert durch Bundesministerium für Bildung und Forschung (BMBF), Förderkennzeichen 03RU1U151C
Projekträger Jülich, Forschungszentrum Jülich
Objekterkennung / Maschinelles Lernen



Kombination von klassischen und ganzheitlich neuronalen Bildverarbeitungs-Ansätzen für industrietaugliche, heterogene HW/SW-Lösungen mit Alleinstellungsmerkmalen - KOALA
Im Vorhaben KOALA sollen für den Einsatz der Bildverarbeitung in Anwendungen der industriellen Qualitätssicherung Lösungen konzipiert, entwickelt und evaluiert werden, die durch das Verbinden der Vorzüge klassischer und neuronaler Ansätze (Deep Learning) der Informationsverarbeitung gekennzeichnet sind. Damit sollen die Voraussetzungen für zukünftige, innovative hybride Bildverarbeitungssysteme geschaffen werden, die ihre Alleinstellung sowohl durch Robustheit und Anpassungsfähigkeit als auch durch hohe Genauigkeit und Echtzeitfähigkeit demonstrieren. Die Fähigkeit zum Weiterlernen geänderter Objektmerkmale und damit zur robusten Objekterkennung unter wechselnden Bedingungen, die Fähigkeit zu KI-unterstützten messenden Auswertungen von Objekteigenschaften und die Umsetzung der Ergebnisse auf Hardwarelösungen für industrielle Umfelder charakterisiert die wesentlichen Innovationen des hier verfolgten Vorgehens.
Die Vorkenntnisse und Erfahrungen der Projektpartner TechnoTeam GmbH und TU Ilmenau ergänzen sich dabei und greifen bei der Realisierung des Verbundvorhabens eng ineinander, um größtmögliche Synergieeffekte zu ermöglichen.
Die zu erforschenden und zu entwickelnden Methoden und Technologien sollen dem beteiligten Unternehmen TT erlauben, seine Produktpalette zu modernisieren und seine Markposition damit weiter auszubauen. Für nächste Generationen von Laser-Direktbelichtern werden die Ergebnisse zur Lösung aktueller Aufgabenstellungen beitragen und in weiteren Anwendungsfeldern neue Markanteile erschließen, die den bisher eingesetzten Technologien und Vorgehensweisen vorenthalten waren. Die Forschungseinrichtung TU Ilmenau und die beteiligten Fachgebiete bauen weitere erfolgreiche wissenschaftliche Kollaborationen aus. Der über die Projektergebnisse mögliche Austausch und das hinzugewonnene KnowHow befördert die Weiterführung der angewandten Forschung auf diesem aktuellen Themengebiet.
Bewilligungszeitraum: 01.02.2020 bis 31.01.2023, Vorhabens-Nr. (Verbund): 2019 VF 0003, Projekt-Nr.: 2019 FE 9009


Verbundprojekt: „Automatisierte Echtzeit-Hyperspektral-Bildgebung und -analyse für die Erkennung betonschädlicher Bestandteile in Gesteinskörnungen“
Teilvorhaben: „Entwicklung einer intelligenten hybriden Erkennungsroutine für ein Hyperspektral-Analysesystem unter Verwendung tiefer neuronaler Netze“
Im Verbundvorhaben HyPetro soll eine sensorgestützte hyperspektrale Erkennung betonschädlicher Bestandteile in Gesteinskörnungen für die Primärrohstoffindustrie durch eine Optiksystementwicklung für die Hyperspektralanalyse sowie eine innovative Algorithmenentwicklung im Bereich des Machine und Deep-Learnings realisiert werden.
Den Hintergrund des Vorhabens bildet die Notwendigkeit der Analyse der Eignung von Gesteinskörnungen für die Betonherstellung hinsichtlich kritischer Bestandteile, welche den Beton auf Dauer schädigen können. Daher werden schnelle Verfahren zur Beurteilung von Gesteinskörnungen benötigt, um eine effiziente Nutzung vorhandener Kieslagerstätten und Steinbrüche zu ermöglichen und damit letztlich zügiger für Bauanfragen liefern zu können.
Eine automatisierte Erkennung soll die gängigen langwierigen Betondauerhaftigkeitstests an Betonprobekörpern zur Evaluierung des Schadenspotentials von Gesteinskörnungen sinnvoll ergänzen. Dadurch können die sehr langen Prüfdauern reduziert werden.
Der volkswirtschaftliche Nutzen dieses neuen Verfahrens liegt vor allem in der Reduzierung oder Vermeidung der entstehenden Bauschäden infolge des Einsatzes von betonschädigenden Gesteinskörnungen.
Das Gesamtziel des Teilvorhabens an der TU Ilmenau ist hierbei die Entwicklung einer intelligenten hybriden Erkennungsroutine für ein Hyperspektral-Analysesystem unter Verwendung tiefer neuronaler Netzwerkarchitekturen.
Partner: GFE Präzisionstechnik Schmalkalden GmbH, Universalbeton Heringen GmbH & Co. KG, Steinbeis Qualitätssicherung und Bildverarbeitung GmbH, Materialforschungs- und -prüfanstalt Weimar (MFPA), TU Ilmenau, FG Qualitätssicherung und Industrielle Bildverarbeitung
Bewilligungszeitraum: 01.09.2020 bis 31.08.2023
Dieses Forschungs- und Entwicklungsprojekt wird durch das Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „Computer-Aided Photonics – Ganzheitliche Systemlösungen aus photonischen Verfahren und digitaler Informationsverarbeitung“ (Förderkennzeichen: 13N15335) gefördert und vom Projektträger VDI Technologiezentrum GmbH betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor.