Internationale SPIE Konferenz: Forschende des Fraunhofer IOF und der TU Ilmenau mit »Best Paper Awards« ausgezeichnet

Die diesjährige Teilnahme an der SPIE-Konferenz »Dimensional Optical Metrology and Inspection for Practical Applications XI« in Orlando war für zwei Forschungs-Teams des Fraunhofer IOF und der TU Ilmenau von großem Erfolg gekrönt: Sowohl der »Orbbec Best Paper Award« als auch der »Orbbec Best Student Paper Award« ging für ihre innovativen Beiträge im Bereich der optischen Messtechnik an die Forschenden aus Jena und Ilmenau.

Nach zwei Jahren virtueller Konferenz kamen vom 3. bis 7. April 2022 mehr als 200 Vertreterinnen und Vertreter aus den Bereichen Optik, Bildgebungssysteme, Laser und fortschrittliche Kameras zur größten technischen Messe auf dem Gebiet der Bildgebung und Sensorik, der »SPIE’s Defense + Commercial Sensing«, in Orlando zusammen. Ein Teil des internationalen Events war die »Dimensional Optical Metrology and Inspection for Practical Applications XI« Konferenz, bei der in diesem Jahr zwei Teams des Fraunhofer IOF und der TU Ilmenau vertreten waren. Der Schwerpunkt dieses Symposiums lag auf Methoden, Analysen und Anwendungen der optischen Messtechnik. Weiterhin wurden die neusten Fortschritte und Entwicklungen in unterschiedlichen Branchen präsentiert.

Besonders qualitative und innovative Ansätze werden auf der Konferenz durch den »Orbbec Best Paper Award« sowie den »Orbbec Best Student Paper Award« geehrt. In diesem Jahr flog der Preis gemeinsam mit den Gewinnerinnerinnen und Gewinner zurück nach Deutschland: Patrick Dietrich, Florian Siegmund, Christian Bräuer-Burchardt, Stefan Heist (Fraunhofer IOF), Gunther Notni (TU Ilmenau, Fraunhofer IOF) sowie Christina Junger (TU Ilmenau) konnten das achtköpfige Programmkomitee mit ihren zukunftsweisenden Forschungsbeiträgen überzeugen.

Mensch-Roboter-Interaktionskabine macht kooperatives Arbeiten möglich

Für ihr Paper »Human-robot interaction booth with shape-from-silhouette-based real-time proximity sensor« bekamen Patrick Dietrich, Florian Siegmund, Christian Bräuer-Burchardt, Stefan Heist und Gunther Notni den mit 1.500 € dotierten »Orbbec Best Paper Award« verliehen.

Das Paper bespricht den innovativen Ansatz einer Interaktionskabine für Mensch und Roboter, so dass diese während eines gemeinsamen Prozessabschnitts im Produktionsablauf räumlich und zeitlich kooperieren können. Aufgrund der immensen Kraft und Schnelligkeit besteht für den Menschen ein erhöhtes Sicherheitsrisiko in der Interaktion mit einem Roboter. Die innovative Interaktionskabine senkt dieses Risiko durch die stetige Überwachung der Positionen beider Parteien innerhalb der Kabine und durch die daraufhin erfolgende Anpassung der Schnelligkeit des Roboters in Relation zur Nähe zum Menschen. Möglich wird diese Überwachung durch einen Multikamerasensor, der nach dem »Form-nach-Silhouette«-Prinzip, eine Formrekonstruktionsmethode, die die 3D-Form eines Objekts anhand seiner Silhouette konstruiert, arbeitet.

Mehr Sicherheit durch Sensoren beim kooperativen Arbeiten zwischen Menschen und Roboter.
© Fraunhofer IOF
Mehr Sicherheit durch Sensoren beim kooperativen Arbeiten zwischen Menschen und Roboter.

Effiziente Lernmethoden für robotergestützte Fertigungsprozesse

Weiterhin wurde der »Orbecc Best Student Paper Award« wurde an Christina Junger und Gunther Notni verliehen. Ihr Paper »Optimisation of a stereo image analysis by densify the disparity map based on a deep learning stereo matching framework« hatte die Optimierung einer Stereobildanalyse durch Verdichtung eines Tiefenbildes auf der Grundlage eines Deep Learning Stereo Matching Frameworks zum Ziel.

Stereovision wird in vielen Anwendungsbereichen eingesetzt, z. B. bei robotergestützten Fertigungsprozessen. Jüngst wurden verschiedene effiziente Stereo-Matching-Algorithmen auf der Grundlage von Deep Learning entwickelt, darunter das Adaptive Aggregation Network (AANet/ AANet+) – ein End-to-End Lernalgorithmus. Zu den Herausforderungen der Stereo-Matching-Algorithmen gehören Objekte mit geringer Textur oder nicht kooperative Objekte Ziel war es, effiziente Lernmethoden für robotergestützte Fertigungsprozesse für Domain-übergreifende Datenströme zu entwickeln und so Erkennungsaufgaben und Prozessoptimierung zu verbessern. Dafür wurde AANet+ auf einem Testdatensatz mit verschiedenen Messaufbauten auf seine Anwendbarkeit und Effizienz hin untersucht. Der Vergleich mit parallelen Messaufbauten konnte zeigen, dass AANet+ in der Lage ist, texturarme und optisch nicht-kooperative Objekte robust zu erkennen.