News

Intel: Neuromorphic Computing soll Robotern das "Fühlen" ermöglichen

  • Intel: Neuromorphic Computing soll Robotern das "Fühlen" ermöglichen
    Das Forschungsteam der National University of Singapore, das hinter dem neuartigen Robotersystem mit ereignisgesteuerten künstlichen Haut- und Sehsensoren steht, wurde von Assistenzprofessor Harold Soh (links) und Assistenzprofessor Benjamin Tee (rechts) geleitet. Zu ihnen gehören die Teammitglieder (zweiter von links nach rechts) Sng Weicong, Tasbolat Taunyazov und See Hian Hian.

Am 15. Juli stellten zwei Forscher der National University of Singapore (NUS), die Mitglieder der Intel Neuromorphic Research Community (INRC) sind, neue Ergebnisse vor, die das Versprechen von ereignisbasiertem Sehen und Berührungssensorik in Kombination mit Intels neuromorpher Verarbeitung für die Robotik belegen. Die Arbeit hebt hervor, wie die Einführung eines Tastsinns in die Robotik die Fähigkeiten und Funktionen im Vergleich zu den heutigen reinen visuellen Systemen erheblich verbessern kann und wie neuromorphe Prozessoren herkömmliche Architekturen bei der Verarbeitung solcher Sensordaten übertreffen können.

 

 

Warum es wichtig ist: Der menschliche Tastsinn ist sensibel genug, um den Unterschied zwischen Oberflächen zu fühlen, die sich nur durch eine einzige Molekülschicht unterscheiden, doch die meisten der heutigen Roboter arbeiten ausschließlich mit visueller Verarbeitung. Forscher an der NUS hoffen, dies mit ihrer kürzlich entwickelten künstlichen Haut zu ändern, die nach ihren Forschungsergebnissen Berührungen mehr als 1.000 Mal schneller als das menschliche sensorische Nervensystem erkennen und Form, Beschaffenheit und Härte von Objekten zehnmal schneller identifizieren kann als der Wimpernschlag eines Auges.

Die Ermöglichung eines menschenähnlichen Tastsinns in der Robotik könnte die derzeitige Funktionalität erheblich verbessern und sogar zu neuen Anwendungsfällen führen. Beispielsweise könnten sich Roboterarme, die mit künstlicher Haut ausgestattet sind, leicht an Veränderungen der in einer Fabrik hergestellten Güter anpassen, indem sie durch taktiles Abtasten unbekannte Objekte mit dem richtigen Druck identifizieren und greifen, um ein Verrutschen zu verhindern. Die Fähigkeit, die Umgebung zu ertasten und besser wahrzunehmen, könnte auch eine engere und sicherere Mensch-Roboter-Interaktion ermöglichen, z.B. in Pflegeberufen, oder uns der Automatisierung chirurgischer Aufgaben näher bringen, indem chirurgische Roboter den Tastsinn erhalten, der ihnen heute fehlt.

Die Schaffung einer künstlichen Haut ist zwar ein Schritt zur Verwirklichung dieser Vision, sie erfordert jedoch auch einen Chip, der auf der Grundlage der sensorischen Daten der Haut in Echtzeit genaue Schlussfolgerungen ziehen kann und gleichzeitig mit einer Leistung arbeitet, die effizient genug ist, um direkt im Roboter eingesetzt werden zu können. "Die Herstellung eines ultraschnellen künstlichen Hautsensors löst etwa die Hälfte des Puzzles, um Roboter intelligenter zu machen", sagte Assistenzprofessor Benjamin Tee von der NUS-Abteilung für Materialwissenschaften und Technik und dem NUS-Institut für Innovation und Technologie im Gesundheitswesen. "Sie brauchen auch ein künstliches Gehirn, das letztlich Wahrnehmung und Lernen als ein weiteres entscheidendes Puzzlestück ermöglicht. Unsere einzigartige Demonstration eines KI-Hautsystems mit neuromorphen Chips wie dem Intel Loihi stellt einen großen Schritt in Richtung Energieeffizienz und Skalierbarkeit dar".

Über die Forschung: Um neue Wege in der Roboterwahrnehmung zu beschreiten, begann das NUS-Team mit der Erforschung des Potenzials der neuromorphen Technologie zur Verarbeitung sensorischer Daten aus der künstlichen Haut unter Verwendung des neuromorphen Forschungschips Loihi von Intel. In ihrem ersten Experiment verwendeten die Forscher eine Roboterhand, die mit der künstlichen Haut ausgestattet war, um Braille-Schrift zu lesen, wobei sie die taktilen Daten durch die Wolke an Loihi weitergaben, um die von der Hand gefühlten Mikrobeulen in eine semantische Bedeutung umzuwandeln. Loihi erreichte eine Genauigkeit von über 92 Prozent bei der Klassifizierung der Braille-Buchstaben und verbrauchte dabei 20 Mal weniger Energie als ein herkömmlicher Von-Neumann-Prozessor.

Aufbauend auf dieser Arbeit verbesserte das NUS-Team die Wahrnehmungsfähigkeiten von Robotern weiter, indem es sowohl Seh- als auch Berührungsdaten in einem neuronalen Netz mit Spitzenwerten kombinierte. Zu diesem Zweck beauftragten sie einen Roboter, verschiedene undurchsichtige Behälter mit unterschiedlichen Flüssigkeitsmengen zu klassifizieren, wobei sie sensorische Eingaben von der künstlichen Haut und einer ereignisbasierten Kamera verwendeten. Die Forscher verwendeten dieselben Tast- und Sehsensoren, um die Fähigkeit des Wahrnehmungssystems zu testen, Rotationsschlupf zu erkennen, was für ein stabiles Greifen wichtig ist.

Sobald diese sensorischen Daten erfasst waren, schickte das Team sie sowohl an eine GPU als auch an den neuromorphen Forschungschip Loihi von Intel, um die Verarbeitungsfähigkeiten zu vergleichen. Die Ergebnisse, die auf der Robotics vorgestellt wurden: Science and Systems diese Woche vorgestellt wurden, zeigen, dass die Kombination von ereignisbasiertem Sehen und Berühren unter Verwendung eines neuronalen Spitzennetzwerks eine 10 Prozent höhere Genauigkeit bei der Objektklassifizierung im Vergleich zu einem reinen Sehsystem ermöglichte. Darüber hinaus zeigten sie, dass neuromorphe Technologie vielversprechend ist, um solche Robotergeräte mit Strom zu versorgen, wobei Loihi die sensorischen Daten 21 Prozent schneller verarbeitet als ein Hochleistungs-GPU und dabei 45 Mal weniger Strom verbraucht.

"Wir sind von diesen Ergebnissen begeistert. Sie zeigen, dass ein neuromorphes System ein vielversprechendes Teil des Puzzles für die Kombination mehrerer Sensoren zur Verbesserung der Roboterwahrnehmung ist. Es ist ein Schritt in Richtung des Baus von energieeffizienten und vertrauenswürdigen Robotern, die in unerwarteten Situationen schnell und angemessen reagieren können", sagte Assistenzprofessor Harold Soh von der Fakultät für Informatik an der NUS School of Computing.

Über die Intel Neuromorphic Research Community: Die Intel Neuromorphic Research Community ist ein Ökosystem von akademischen Gruppen, Regierungslabors, Forschungseinrichtungen und Unternehmen auf der ganzen Welt, die mit Intel zusammenarbeiten, um das neuromorphe Computing zu fördern und innovative KI-Anwendungen zu entwickeln. Forscher, die daran interessiert sind, am INRC teilzunehmen und für Loihi zu entwickeln, können die Website der Intel Neuromorphic Research Community besuchen. Eine Liste der derzeitigen Mitglieder ist ebenfalls auf der Website zu finden.

Über Intel
Intel (Nasdaq: INTC) ist eines der führenden Unternehmen in der Entwicklung zukunftsweisender Technologien, von denen Menschen auf der ganzen Welt profitieren. Inspiriert durch das Mooresche Gesetz arbeiten wir ständig an der Weiterentwicklung unserer Halbleiter-Produkte, um Kunden bei der Bewältigung ihrer größten Herausforderungen bestmöglich zu unterstützen. Wir implementieren intelligente Technologien und Lösungen in der Cloud, im Netzwerk und in allen Geräten dazwischen. Dadurch nutzen wir das volle Potenzial von Daten, die Unternehmen und Gesellschaft verbessern.

Weiterführende Links

www.intel.de

Foto: Nationale Universität Singapur