Es gibt mehr zu sehen Roboter können jetzt zuvor „unsichtbare“ Objekte erkennen

Quelle: Fraunhofer-IOF 2 min Lesedauer

Anbieter zum Thema

Transparente, spiegelnde oder tiefschwarze Gegenstände konnten Roboter bisher nur schwer erkennen, weil es sogenannte unkooperative Oberflächen sind. Forscher haben den Blick der Roboter nun verbessert.

Für die Optik von Robotersystemen sind die Oberflächen mancher Gegenstände kaum erkennbar und somit auch nicht die Objekte an sich. Mit KI und speziellen Projektionen ist es Forschern aber gelungen, die „Geistergegenstände“ dennoch identifizierbar zu machen ...(Bild:  Fraunhofer-IOF)
Für die Optik von Robotersystemen sind die Oberflächen mancher Gegenstände kaum erkennbar und somit auch nicht die Objekte an sich. Mit KI und speziellen Projektionen ist es Forschern aber gelungen, die „Geistergegenstände“ dennoch identifizierbar zu machen ...
(Bild: Fraunhofer-IOF)

Sogenannte unkooperative Oberflächen sind für konventionelle Sensorsysteme schwierig zu erfassen. Diese Herausforderung haben aber Forscher vom Fraunhofer-Institut für Optik und Feinmechanik (IOF) mit dem „goROBOT3D“-System, das durch „intelligente“ Wärmebildgebung auch solche Oberflächen erkennt, gemeistert, wie es jetzt heißt. Sie haben dazu bestehende Systeme weiterentwickelt. Die Mess- und Auswertungszeit transparenter oder tiefschwarzer Objekte mit dem neuen System konnte dabei von bisher 15 auf knapp 1,5 Sekunden reduziert werden. Dazu wurde IOF auch in neues Projektionsverfahren für die thermische 3D-Sensorik entwickelt.

Diffraktive optische Elemente schaffen Ankerpunkte

Das entwickelte Verfahren überträgt dazu eine „Single Shot“-Technologie auf die thermische 3D-Messtechnik. Dabei wird die Oberfläche der Messszenerie strukturiert erwärmt. Ein auf der Oberfläche der Objekte entstehendes thermisch statistisches Punktmuster wird emittiert und mithilfe von zwei Wärmebildkameras erkannt. Durch räumliche Kreuzkorrelation kann aus dem aufgenommenen Bildpaar ein 3D-Ergebnis gewonnen werden, wie die Forscher aus Jena erklären. Denn statt wie bisher Streifenprojektionen zur Generierung des Musters einzusetzen, erzeugen nun zwei diffraktive optische Elemente (DOE) ein unregelmäßiges Punktmuster. Solche DOEs nutzen das Prinzip der Lichtbeugung, um den einfallenden Laserstrahl zu vervielfachen und in ein Muster aufzuteilen. Durch die geschickte Kombination der DOEs konnte das erforderliche Punktmuster erstmals effizient und innerhalb kürzester Zeit auf das transparente Objekt projiziert werden.

Punktmuster lässt Roboter in Millisekunden zupacken

Die aufgenommenen 3D-Daten werden dann mittels künstlicher Intelligenz (KI) analysiert. Dabei werden geeignete Greifpunkte und -richtungen abgeleitet und an einen Roboterarm mit Sauggreifer übermittelt. Dazu setzen die Forscher ein sogenanntes „Bin-Picking“-Verfahren ein. Man könne sagen, dass es sozusagen ein Griff in die Kiste sei – also das gezielte Greifen von chaotisch angeordneten Objekten. Und die drastisch verkürzte Aufnahme- und Auswertungszeit schafft dabei neue Möglichkeiten für automatisierte Industrieprozesse – beispielsweise in Fertigungsanlagen oder der Produktgestaltung. Roboter können transparente oder dunkle Objekte so nicht nur sicher identifizieren und greifen, sondern nahezu ohne Taktunterbrechung weiterarbeiten. Und während ein Objekt gehandhabt werde, könne die nächste Messung bereits erfolgen.

Wen es interessiert: Das IOF zeigt diese neue Möglichkeit im Rahmen der Automatica in München vom 24. bis 27. Juni in Halle 4.

(ID:50440547)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung