NEXT 2016
Robotic Coworking
Kuka Innovation Award - Wearables for Interacting with Robotic Co-Workers
Im diesem Jahr ist es dem Lehrstuhl für Softwaretechnologie der Fakultät Informatik an der TU-Dresden gelungen, in das Finale des Kuka Innovation Awards einzuziehen. Der Beitrag WEIR (Wearables for Interacting with Robotic Co-Workers) zeigte, wie Roboter von menschlichen Körperposen gesteuert und programmiert werden können, um Produktionsaufgaben schnell und mit nur wenig Vorkenntnissen zu automatisieren.
Im Rahmen ihres Projektes entwickelte das Team um Maria Piechnick, Jan Falkenberg, Sebastian Werner, Christian Piechnick, Georg Püschel und Prof. Uwe Aßmann eine Jacke mit integrierten Orientierungssensoren und verschiedenen Micro-Computern, mithilfe derer die Bewegungen des Oberkörpers eines Menschen erfasst werden können. Ein intelligenter Handschuh ergänzt die Jacke und erfasst zusätzlich die Handstellung und einzelne Finger des Nutzers zur Ansteuerung eines am Roboterarm installierten Greifers. Über Vibrationsmotoren kann taktile Rückmeldung an den Träger des Handschuhs übermittelt werden. Durch eine innovative Softwarelösung ist es möglich die Bewegungen des Trägers der intelligenten Kleidung an einen Roboterarm zu übertragen und diesen dann durch direkte Bewegungen zu steuern. In Kombination mit einer mobilen Anwendung können technische Laien auf diese Weise innerhalb kurzer Zeit, Roboterarme programmieren ohne selbst Programmierkenntnisse zu besitzen. Innerhalb weniger Minuten können so komplexe Automatisierungsprozesse erstellt werden. Dabei werden nicht zwangsweise komplette Bewegungsabläufe aufgezeichnet, sondern auf Wunsch nur einzelne Punkte. Diese können anschließend mit verschiedenen Interpolationsstrategien verbunden werden.
Im Gegensatz zu optischen Trackingverfahren senkt der Einsatz von Sensorik in der Kleidung den Einrichtungsaufwand, die Kosten und erhöht die Mobilität. Darüber hinaus können Aktuatoren, die in der Kleidung integriert sind (z.B. Vibrationsmotoren) Rückmeldung geben. So kann der Nutzer spüren was der Roboter über die integrierte Sensorik wahrnimmt (z.B. Kollisionen, Greifen von Gegenständen). Die Genauigkeit bei der Erfassung der menschlichen Bewegung ist dabei so hoch, dass es ohne weiteres möglich ist, den Roboter die Spitze einer Nadel in die Öse einer anderen Nadel einfädeln zu lassen.
Das WEIR-System eröffnet viele neue und innovative Anwendungsfelder, zum Beispiel der Einsatz von Robotern in schwer zugänglichen oder sogar für Menschen gefährlichen Arbeitsumgebungen. Auch Teleoperation des Roboterarmes wird mit dem vorgestellten System sehr einfach, intuitiv und präzise. Gerade die aufkommenden Herausforderungen im Themenbereich Industrie 4.0, mit den Zielen der Losgröße 1 und der Zusammenarbeit von Mensch und Roboter in der Fabrik von Morgen, sollen mit dieser Entwicklung erreicht werden. Denn das Entwickeln und auch das Testen von Prozessprototypen wird durch dieses Verfahren schneller ermöglicht. Damit ergeben sich nicht nur Vorteile für adaptive Produktionsprozesse, sondern auch für KMUs, die nur wenige Robotersysteme einsetzen können.
Auf der Hannover Messe präsentierte die Gruppe mithilfe des sensitiven Roboterarms KUKA LBR iiwa ihre Entwicklung. Die dafür entwickelte Softwareinfrastruktur ist hoch flexibel und adaptiv. So lässt sich das selbe Verfahren ohne Weiteres auf andere Hardwareplattformen (z.B. Universal Robots oder ABB Roboterarme) übertragen. Die sensitiven Eigenschaften des Roboters ermöglichen echte Mensch/Roboter Co-Working Szenarien. Damit ist dem Projekt WEIR auch ein wichtiger Schritt zur Überwindung von abgeschirmten Roboterarbeitszonen und Fabriken gelungen.
Neben dem Programmieren und Steuern von Robotern sind darüber hinaus noch völlig andere Anwendungsfälle denkbar. So kann die Sensorik in der Kleidung beispielsweise dazu verwendet werden, die physische Belastung von Arbeitern in Produktionsanlagen zu erfassen. Fehl- bzw. Überbelastungen können erkannt und die Arbeitspositionen in einer Fertigungsstrecke dementsprechend neu organisiert werden, bevor es zu körperlichen Schädigungen kommt.


Bildquellen:
- Lehrstuhl für Softwaretechnologie der Fakultät Informatik an der TU-Dresden
- Sven Claus - Silicon Saxony