Das Verbundprojekt "Miniaturisiertes, ortsaufgelöstes, multispektrales, echtzeitfähiges Bildverarbeitungssystem für industrielle und biomedizinische Anwendungen (Minimize)" verfolgt die Zielstellung, ein miniaturisiertes Sensorsystems für die digitale ortsaufgelöste Erfassung von multispektralen Bildinformationen mit unterschiedlichen spektralselektiven Kanälen und einer schnellen Bildszenenaufnahmerate zu entwickeln und zu realisieren.
Durch den holistischen Systementwurf mit der Berücksichtigung und Kombination von Beleuchtung, Optik, multispektralem Sensormodul und Elektronik sowie von Modellbildung und Algorithmen werden vollständig neue Anwendungen durch Miniaturisierung bei erhöhter Funktionalität in Maschinen- und Anlagenbau, Fahrzeugbau, Medizintechnik, Lebensmitteltechnik und modernen Dienstleistungen, wie beispielsweise die Point-of-Care Messtechnik im biologischen und medizinischen Feldbetrieb, möglich.
Die ortsaufgelöste multispektrale Bildszenenaufnahme, -verarbeitung und -auswertung ist die logische, methodische und technische Weiterentwicklung der „technischen Augen“.
So wie heutzutage in nahezu jeder Kamera drei spektralselektive Filter für die ortsaufgelöste Farbbildaufnahme eingesetzt werden, so werden in absehbarer Zeit in jeder Kamera mehrere spektralselektive Filter für die ortsaufgelöste Farb- und Spektralbildverarbeitung eingesetzt werden.
Das Projekt NeoVital zielt auf die Entwicklung eines Multispektral-3D-Sensors für die kontaktlose Vitalparametermessung in der Neonatologie ab. Als hardwaretechnische Grundlagen soll ein Sensorsystem durch das Kombinieren eines irritationsfreien aktiven 3D-Bildsensors mit Farb- und Infrarotkameras entwickelt werden, wobei ein Verfahren für die geometrische Kalibrierung des gesamten Sensorsystems zu erarbeiten ist. Dadurch lassen sich multispektrale 3D-Bilddaten in Echtzeit generieren und darauf basierend sollen neuartige effiziente und robuste Algorithmen für die Ableitung von Vitalparametern wie z. B. Herzschlagfrequenz und Sauerstoffsättigung des Blutes aus multispektralen 3D-Videodaten erarbeitet werden. Die erarbeiteten Algorithmen sollen zunächst im Labor unter nachgestellten Umgebungsgrößen wie z. B. Lichtbedingung und Temperatur evaluiert und durch den Vergleich mit einem zertifizierten Referenzmessgeräten validiert werden. Für den Einsatz in der klinischen Umgebung soll ein modularer kompakter Sensorkopf inklusive irritationsfreier aktiver Beleuchtung hinsichtlich der Anforderungen an Sicherheit und Hygiene aufgebaut werden, wobei eine multispektrale Infrarotkamera mit spezifischen Spektralkanälen auf Grund der nanooptischen Filtertechnologie in Zusammenarbeit mit Projektpartnern für die Miniaturisierung des Sensorsystems zu entwickeln ist. Außerdem ist ein Anwendungsprogramm mit einer modularen Softwarestruktur für klinische Benutzer bereitzustellen. Das entwickelte Sensorsystem soll schließlich im Universitätsklinikum Jena installiert und mit Neugeborenen langzeitig getestet werden.
Projektpartner: Universitätsklinikum Jena, Friedrich-Schiller-Universität Jena, Steinbeis Qualitätssicherung und Bildverarbeitung GmbH
Bewilligungszeitraum: 01.06.2020 - 31.12.2021
Gefördert durch Bundesministerium für Bildung und Forschung (BMBF), Förderkennzeichen 03ZZ0482C
Die Entwicklung von Anwendungen für Industrie 4.0 aber auch „Smart Health“ ist geprägt von einem zunehmenden Einsatz intelligenter interaktiver Systeme für die Mensch-Maschine-Interaktion (MMI). So werden im Bereich “Smart Health” Assistenzroboter das Pflegepersonal bei typischen Pflegetätigkeiten unterstützen und als Assistenten mit Zureich- oder Übernahmefunktion fungieren. Ähnliche, auf intelligente Handlangertätigkeiten basierende Assistenzfunktionen werden auch in anderen Tätigkeitsbereichen, wie der industriellen Fertigung (z.B. Montage) oder im Handwerksbereich Einzug halten, wenn es gelingt, die Assistenzroboter so zu gestalten, dass Nutzer und Roboter der aktuellen Situation entsprechend kooperativ und hoch effizient Hand in Hand zusammenarbeiten können. Vor diesem Hintergrund sollen im Rahmen der beantragten Forschergruppe für die Mensch-Roboter-Kollaboration (MRK) neuartige Lösungen zur smarten Objektübergabe und -übernahme erforscht werden, die für die Weiterentwicklung der interaktiven Assistenzrobotik essentiell sind und deutlich über den gegenwärtigen Stand der Technik hinausgehen. Sie sollen es erlauben, dass Assistenzroboter bei ihrer Interaktion mit dem Menschen situativ ihre Handlungen (Bewegungspfade, Bewegungsmuster, Interaktionsgeschwindigkeit, Greifpositionen) an den Menschen und dessen aktuelle Tätigkeiten anpassen und damit sozial akzeptabel werden. Im Rahmen des angestrebten smarten Übernahme/Übergabeszenarios bedeutet dies, dass der Assistenzroboter bei einer Objektübernahme die Haltepose und Greifposition der Hand des Übergebenden am Objekt erkennen und daraufhin das Objekt auf eine alternative Art und Weise sicher greifen und übernehmen kann, ohne dabei den Menschen zu gefährden (z.B. Berühren der Hand des Menschen). Im weiteren Verlauf ist das übernommene Objekt dann sicher zu einem weiteren Akteur zu transportieren und gefährdungs- frei an diesen zu übergeben. Die hierfür erforderlichen dynamischen Prozesse erfordern eine kontaktlose Überwachung und Analyse des gemeinsamen Interaktionsraumes und der aktuellen Aktivität des Interaktionspartners. So bedarf es neben der Bewertung von Abständen, Bewegungen und Strukturen (Mensch, Roboter, Übergabeobjekt, Handposition) im Interaktionsraum bzw. am Objekt eine daraus resultierende Bewegungsplanung sowie die Echtzeit-Reaktion des Gesamtsystems mit hoher räumlich-zeitlicher Auflösung bei geringer Latenz. Für die Mensch-Roboter-Kollaborationen ist zudem die Einhaltung der DIN EN ISO 10218 und ISO/TS 15066 zu gewährleisten.
Partner: Hochschule Schmalkalden, GFE e.V. Schmalkalden, TU Ilmenau
Bewilligungszeitraum: 01.04.2019 - 31.12.2021
Gefördert durch die Thüringer Aufbaubank - Vorhabens-Nr. 2018 FGR 0079
Das FuE-Verbundvorhaben "Multiarray-Bildverarbeitungssystem für die Inline-Qualitätssicherung industrieller Baugruppen (MultiSys)" stellt sich komplexen Fragestellungen der industriellen Produktion, die durch den Einsatz vernetzter Bildverarbeitungssysteme in Arraystrukturen auf Boardlevel gelöst werden sollen. Die zu entwickelnde hochintegrierte Bildverarbeitungskette, die mindestens 16 Einzelbildsensoren gleichzeitig einziehen kann, soll einen erheblichen Zeitgewinn bei Inspektionsaufgaben in der industriellen Produktion erzielen. Gleichzeitig steigt die Abtastqualität und aufwendige Justage und Kalibrierverfahren die derzeitig bei abrasternden Achssystemen notwendig sind entfallen ebenso wie die damit verbundene Wartung. Angestrebt werden 200 Megapixel/s zu erfassen und in einer Zykluszeit von unter 5s komplett zu verarbeiten. Durch modellbasierte Bildfeldentzerrung und Sensorkorrekturen soll die Inspektion einer Fläche von bis zu 450 x 450 mm² bei einer Auflösung von bis zu 30 µm für industrielle Inspektionsaufgaben ermöglicht werden.
Das Verbundvorhaben wurde von der Thüringer Aufbaubank gefördert: Vorhabensnummer: 2017 VF 0023; Verbundvorhabensnummer: 2017 FE 9058
Laufzeit: 01.04.2018 - 31.03.2021
Die robuste und integrierte Erfassung der Produktqualität von durchkontaktierten Verbindungen von Elektronik (THT Trough-Hole Technology) insbesondere beim Einsatz in Hochstromleiterkarten (Elektromobilität, Automotive, Solarindustrie) ist aktuell sehr schwierig und instabil. Eine absolute Absicherung kann nur durch die Durchstrahlung dieser Baugruppen oder aufwendige optische Systeme sichergestellt werden. Eine schnelle Inline-Inspektion ist daher ein wichtiger Bestandteil bei der Qualitätssicherung dieser Produkte. Gemeinsam mit dem Projektpartner Göpel-Elektronik soll hierfür ein optisches Inspektionssystem entwickelt werden, das eine schnelle automatisch-optische Inspektion unter Einhaltung der Maschinenfähigkeit I und III mit bis zu 60 cm²/s sicherstellt. Mit Hilfe spezieller Beleuchtungen und deren automatische Optimierung soll eine robuste Erfassung der 3D-Konturen der Durchkontaktierungen erreicht werden.
Das Projekt PIN 3D wird unter dem Förderkennzeichen ZF4075129PR8 durch die AIF Projekt GmbH begleitet.
Die Förderung erfolgt im Rahmen des Programms „Zentrales Innovationsprogramm Mittelstand (ZIM)“.
Laufzeit: 01.11.2018 - 30.04.2021
Verbundprojekt: „QualiMikro – Digitalisierung und Robotisierung im Kontext von Industrie 4.0 in der Qualitätskontrolle einer mikrofluidischen Detektionsplattform“
Titel des Teilvorhabens: „Entwicklung von auf künstlicher Intelligenz basierenden Algorithmen zur automatisierten Qualitätssicherung mikrofluidischer Bauteile“
Das Schlüsselwort „Lab-on-a-Chip“ beschreibt die Miniaturisierung und Automatisierung von zum Teil komplexen, meist biochemischen Verfahren in kleinsten Kanälen und Kavitäten, die nicht viel größer als das menschliche Haar sind. Die Einsatzbereiche von Lab-on-a-Chip Applikationen in der Diagnostik, erfordern eine hochpräzise 100%-Kontrolle der Produktion. Aus wirtschaftlicher Sicht kann dies nur unter Nutzung der automatisierten Bildverarbeitung erzielt werden.
Somit adressiert das Ziel des Projektes QualiMikro die Robotisierung und Digitalisierung der optischen Qualitätskontrolle mikrofluidischer Bauteile und die Nutzung von Algorithmen aus dem Bereich des maschinellen Lernens zur Auswertung der gewonnenen Bilddaten. Weiterhin soll über die erfassten QC-Daten eine Vorhersagbarkeit, welche die Einflüsse vorheriger Arbeitsschritte auf die nachfolgenden Arbeitsschritte liefert, in die Fertigungskette integriert werden. Das Gesamtziel des Projektes ist das Erreichen einer Qualitäts- und Produktivitätssteigerung der gesamten Wertschöpfungskette des produzierenden Projektpartners.
Im Teilvorhaben an der TU Ilmenau sollen anhand eines adäquaten Trainingsdatensatzes mit vorhandenen Klassenzuweisungen neuartige Algorithmen, welche in der Lage sind Oberflächenfehler in den Mikrostrukturen zu detektieren, erarbeitet und evaluiert werden. Für die eigentliche Klassifikation sollen verschiedene leistungsfähige Erkennungsverfahren des Maschinellen Lernens / Deep Learnings zum Einsatz kommen. Neben der Oberflächeninspektion sollen auch Kennzahlen, welche im Rahmen der Industrie 4.0 Rückschlüsse auf den Produktionsprozess erlauben, ermittelt werden.
Partner: microfluidic ChipShop GmbH, Ziemann und Urban GmbH, TU Ilmenau, FG Qualitätssicherung und Industrielle Bildverarbeitung
Dieses Forschungs- und Entwicklungsprojekt wird durch das Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „KMU-innovativ: Produktionsforschung“ (Förderkennzeichen: 02P18K572) gefördert und vom Projektträger Karlsruhe (PTKA) betreut. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor.
Bewilligungszeitraum: 01.06.2019 bis 31.05.2021
Der stetige Anstieg des Automatisierungsgrades von Fertigungsprozessen im schweren Stahlbau bedingt die zeitgleiche automatisierte Überwachung dieser Prozesse. Die Inspektion und Bewertung von automatisiert geschweißten Kehlnähten stellt dabei eine besondere Herausforderung dar. Diese Nahtform ist die am häufigsten vertretene Verbindungsform bei Stahlkonstruktionen und dennoch nur unzureichend mit den standardisierten Prüfverfahren auf entstandene Schweißnahtunregelmäßigkeiten prüfbar. Um diesem Missstand entgegenzuwirken, die Güte von Schweißkonstruktionen zu erfassen sowie die spezifizierten Bauteilanforderungen zerstörungsfrei nachzuweisen, soll ein Fertigungssystem mit einem kontaktlos und optisch arbeitenden Inline-Inspektionssystem entwickelt werden. Dieses ist gekennzeichnet durch eine halbautomatisierte Schweißbrennerführung mit Schweißbadregelung, ein Inline-Erfassungssystem für die dreidimensionale Nahtgeometrie sowie die multispektrale und thermografische Detektion zur volumetrischen Beurteilung einer Kehlschweißnaht und deren Schweißnahtunregelmäßigkeiten basierend auf einer selbstlernenden Software.
Das Forschungsprojekt ist Bestandteil des Kooperationsprojektes „Vollautomatisiertes, multimodales Inspektionssystem für Schweißnahtunregelmäßigkeiten an Kehlnähten mittels Thermografie - VOLneTT“.
Es wird im Rahmen des Programms "Zentrales Innovationsprogramm Mittelstand (ZIM)" vom BMWi gefördert. Förderkennzeichen: ZF4075138FH9