MRK

Andreas Mühlbauer,

AR verbindet Mensch und Roboter

Technologien für erweiterte Realität (AR) finden zunehmend Einsatz im industriellen Kontext. Durch entsprechende AR-Brillen lässt sich die reale Umgebung durch virtuelle Objekte erweitern. Diese sind in der realen Umgebung verankert.

Bild 1: Zusammenspiel von Mensch und Roboter an einer vereinfachten Montageaufgabe. Dem Menschen werden die weiteren Montageschritte und das Verhalten des Roboters auf der AR-Brille angezeigt. © Universität Bayreuth

Darauf aufbauend sind die gestalterischen Möglichkeiten von AR offen. Es lassen sich animierte Modelle realer Objekte erstellen, die sich vom Nutzer durch Greifen und Verschieben verändern lassen. AR verspricht damit vereinfachte Bedienung, mehr Sicherheit und einfacheres Einlernen im Umgang mit Robotern und Maschinen.

Die breite Verfügbarkeit kollaborativer Leichtbauroboter ermöglicht die Integration von Robotern in bestehende Fertigungsprozesse. Gerade für die Kleinserienfertigung variantenreicher Produkte bietet sich eine Verteilung der Aufgaben an, die die Stärken von Menschen (Fingerfertigkeit, Anpassungsfähigkeit) und Robotern (Kraft, Präzision) nutzt. Eine Herausforderung besteht darin, die gemeinsame Arbeit von Mensch und Roboter zu koordinieren. Klassischerweise geschieht dies durch einen im Voraus festgelegten Plan. Dessen Erstellung ist aufwendig: Kollisionen müssen vermieden und die Gesamtdauer soll minimiert werden.

Dies erfordert es, die Bewegungen von Mensch und Roboter möglichst genau abzuschätzen und den Menschen in den Ablauf einzulernen. Andererseits wird das Potenzial des Menschen, auf Abweichungen flexibel zu reagieren und Abläufe unter realen Bedingungen sukzessive zu verbessern, nicht ausgeschöpft. Ebenso wie bei der Zusammenarbeit mit einem Menschen wäre es wünschenswert, wenn sich das Mensch-Roboter-Team einspielen kann, um die Fertigung eines Produkts optimal erledigen zu können. Im Rahmen dieser Phase probieren beide Partner verschiedene Herangehensweisen aus. Sie müssen dabei flexibel aufeinander reagieren.

Anzeige

Am Robotik-Lehrstuhl der Universität Bayreuth wird hierzu an Verfahren gearbeitet, um die Vorgehensweise des Menschen zu erkennen und die Bewegung des Roboters anzukündigen. Bild 1 veranschaulicht das Zusammenspiel von Mensch und Roboter an einer synthetischen Montageaufgabe. Der Mensch kann aus einer Vielzahl an Varianten wählen, wie die einzelnen Komponenten des Produkts zusammengebaut werden. In jeder der Varianten werden die Komponenten in einer anderen Reihenfolge gegriffen und zu anderen Zeiten in den Arbeitsraum des Roboters gelegt. Für den Roboter bedeutet dies, dass er sich flexibel anpassen muss, welcher Montageschritt als nächstes möglich und sinnvoll ist. Alle Varianten durchzuspielen, stellt keine Option dar, da bereits die Anordnungsmöglichkeiten weniger Teilaufgaben zu viele Varianten erzeugen. Stattdessen wird mit künstlicher Intelligenz und neuronalen Netzen ein vereinfachtes Modell gelernt, wie sich der Mensch verhält. Auf Basis der Modellvorhersage schätzt der Roboter ab, was der Mensch als Nächstes erledigt, und passt seinen Arbeitsschritt an.

Bild 2: Symbolbild für die Darstellung der Roboterbahn in AR. Die Roboterpose wird virtuell an verschiedenen Punkten der Bahn dargestellt. © Universität Bayreuth

AR-Technologien nehmen in dem Prozess eine Schlüsselrolle ein. Virtuelle Objekte unterstützen sowohl bei der Montage als auch bei der Interaktion mit dem Roboter. Für die Montage werden die noch zu erledigenden Schritte am Produkt angezeigt. Der Blick zur Seite auf eine Aufgabenbeschreibung entfällt, und es kann von Beginn an mit vollem Fokus auf das Produkt gearbeitet werden. Der nächste Schritt des Roboters wird in der Darstellung ebenfalls hervorgehoben. Der Mensch berücksichtigt das und vermeidet somit, den gleichen Arbeitsschritt wie der Roboter erledigen zu wollen. Ein weiterer Aspekt ist die Vermeidung von Kollisionen mit dem Roboter. Da beide im gleichen Arbeitsraum und am gleichen Produkt arbeiten, ist eine grobe Abstimmung hilfreich, wer als Nächstes wohin greifen möchte. Der Roboter nutzt hierzu das oben erwähnte Modell des menschlichen Verhaltens. Für den Menschen ist es anfangs schwierig, abzuschätzen, wie sich der Roboter bewegt. Hier hilft die dreidimensionale Darstellung im Arbeitsraum aus Bild 2. Im Gegensatz zu klassischen Displays sieht der Mensch direkt, ob die Armbewegung mit der Roboterbahn kollidieren könnte und kann präventiv ausweichen.

Insgesamt führt die Kombination aus künstlicher Intelligenz und erweiterter Realität zu einem flüssigen Arbeitsrhythmus. Eine aufwendige Vorabplanung und Aufteilung der einzelnen Arbeitsschritte ist nicht nötig. Frustration wird vermieden, da sich Mensch und Roboter nicht gegenseitig blockieren oder versuchen, den gleichen Montageschritt zu beginnen.

Nico Höllerich, Prof. Dr. Dominik Henrich, Lehrstuhl Angewandte Informatik III (Robotik und Eingebettete Systeme), Universität Bayreuth

Anzeige

Das könnte Sie auch interessieren

Anzeige

3D-Modelle

Prototypen schneller entwickeln

Augmented Reality ist als Technologie auch für industrielle Umgebungen und Anwendungsfälle interessant. Virtuelle 3D-Modelle, die als Hologramme in den Raum projiziert werden, erlauben das gemeinsame Arbeiten an der Prototyp-Design- Entwicklung –...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem INDUSTRIAL Production Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite