Roboter mit Feingefühl

Wie Maschinen sich an den Menschen herantasten

  • Hans-Arthur Marsiske
  • Lesedauer: 7 Min.
Die Roboterwissenschaftlerin Katherine J. Kuchenbecker mit dem HuggieBot
Die Roboterwissenschaftlerin Katherine J. Kuchenbecker mit dem HuggieBot

Beim Menschen dürfte der Tastsinn der am meisten unterschätzte der klassischen fünf Sinne sein. Wir denken selten darüber nach, wieso es uns gelingt, ein rohes Ei mit genau der richtigen Kraft zu halten, um es nicht durch die Finger rutschen zu lassen, aber auch nicht zu zerbrechen. Wir erkennen durch bloße Berührung, aus welchem Material ein Gegenstand besteht und binden im Dunkeln unsere Schuhe zu, ohne uns zu wundern – weil uns diese erstaunliche Fähigkeit seit unseren frühesten Anfängen vertraut ist. Bereits im Mutterleib beginnen wir, strampelnd und tastend unsere Umwelt zu erkunden. Nach der Geburt setzen wir die Forschungsarbeit fort, indem wir Gegenstände in den Mund nehmen, um sie mit den besonders empfindlichen Lippen zu befühlen und die Hände einsetzen, um die Welt um uns herum buchstäblich zu begreifen.

Bei Robotern ist die taktile Sensorik, die sich beim Menschen als erste Wahrnehmungsfähigkeit herausbildet, dagegen eher ein Nachzügler. Anfangs funktionierten sie ja auch ganz gut ohne sie. Und auch heute arbeiten Industrieroboter, die in großen Fabrikhallen unermüdlich Autokarosserien und andere Produkte montieren, noch häufig ohne jedes Gefühl für ihre Umgebung. Sie sind so konstruiert, dass sie die vorprogrammierten Bewegungsabläufe mit einer Genauigkeit wiederholen, die in Hundertsteln von Millimetern gemessen wird. Jedes Bauteil kommt an seinen vorgesehenen Platz, jede Schweißnaht sitzt perfekt, ohne dass tastendes Nachjustieren erforderlich wäre.

Für eine solche Präzisionsarbeit müssen die Roboter allerdings fest an einer Stelle stehen. Die Programmierung einer Produktionsstrecke ist aufwendig und die stählernen Ungetüme, die bis zu mehrere Hundert Kilo durch die Luft schwenken können, müssen durch Drahtgitter abgeschirmt werden. Denn wenn ihnen ein Mensch in die Quere käme, würden sie ihn einfach zur Seite fegen, ohne es zu merken. Sie haben ja keinen Sinn für Berührungen, weder für zarte noch für harte.

Doch seit Roboter mehr und mehr ihre fest montierten Standorte in den Fabriken verlassen, selbst hin- und herfahren und immer enger mit Menschen zusammenarbeiten sollen, ist ein sicheres Gefühl für Berührungen unerlässlich geworden.

Dabei geht es zunächst um unerwünschte Berührungen und ihre Vermeidung: Roboterarme, die in unmittelbarer Nähe von Menschen arbeiten, dürfen auf keinen Fall mit ihren Kollegen aus Fleisch und Blut zusammenstoßen. Dabei helfen ihnen kapazitive Sensoren, die ein elektrisches Feld erzeugen und durch die Veränderung der Feldstärke bereits die Annäherung an ein Hindernis bemerken. Der Roboter kann dann seine Bewegung verlangsamen. Spätestens, wenn tatsächlich der Kontakt hergestellt ist, sorgen dann taktile Sensoren in der Roboterhaut für den kompletten Stopp. Solche Sensoren nutzen zumeist piezoelektrische Materialien, die bei Druck eine elektrische Spannung erzeugen – ein Effekt, der unter anderem auch in Feuerzeugen genutzt wird, wo durch das Drücken auf die Taste ein elektrischer Funke erzeugt wird, der das Gas zündet.

Bei der bloßen Vermeidung von Kollisionen soll es aber natürlich nicht bleiben. Wenn ein Roboter schon über eine berührungsempfindliche Haut verfügt, kann sie ihm ja auch helfen, sich in seinem Arbeitsumfeld besser zu orientieren. Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) in Magdeburg etwa stattet die Finger von Robotergreifern mit einer berührungsempfindlichen Oberfläche aus, die auf 3×3 Zentimetern ungefähr 1000 taktile Zellen enthält. Die auf den Finger wirkenden Kräfte können demnach mit einem Auflösungsvermögen von einem Quadratmillimeter gemessen werden. In einem Video des IFF ist zu sehen, wie einem Roboter dadurch die sichere Unterscheidung verschiedener Bauteile wie Schrauben, Scheiben oder Zylindern mit unterschiedlich großen Bohrlöchern ermöglicht wird.

Solche Fähigkeiten sind unerlässlich, sobald den Robotern die zu greifenden Bauteile nicht mehr in der stets gleichen Position und Ausrichtung zugeführt werden oder wenn sie selbst mobil werden und an verschiedenen Orten arbeiten. Eine Wiederholgenauigkeit der Bewegungsabläufe im Submillimeterbereich lässt sich dann nicht mehr realisieren, die Bewegungen müssen mithilfe von Sensoren gesteuert werden. Für die grobe Orientierung geschieht das zumeist mit Kameras, die jedoch bei feineren Aufgaben an ihre Grenzen stoßen.

Beim Wettbewerb Robothon etwa, bei dem es um die automatisierte Aufbereitung von Elektromüll geht, nutzte das Team RoboPig von der Hochschule für Angewandte Wissenschaften Würzburg-Schweinfurt im vergangenen Jahr die Kamera, um die ungefähre Position und Ausrichtung der zu bearbeitenden Schalttafel zu bestimmen. Danach tippte der Roboter mit dem Greifer an die Seiten der Schalttafel, um die Kameradaten anhand der dabei gemessenen Kräfte zu präzisieren. Auch andere Aufgaben wurden mithilfe des Tastsinns gelöst: Ganz ähnlich wie ein Mensch beobachtete der Roboter beim Einführen eines flachen Schlüssels in ein Zylinderschloss die auftretenden Kräfte, um zu verhindern, dass der Schlüssel sich verkantete. Und um eine Stabbatterie in einer nur wenig größeren Röhre abzulegen, führte er spiralförmige Bewegungen aus, bis er »spürte«, dass die Batterie hineinpasste und er sie loslassen konnte.

Die höchste Stufe in der Entwicklung des Tastsinns ist es jedoch, ihn nicht nur zur Orientierung zu nutzen, sondern auch zur Kommunikation. So wird ein menschlicher Säugling, wenn er herangewachsen ist, mit seinen Lippen irgendwann nicht mehr nur Gegenstände befühlen, sondern auch die Lippen anderer Personen und wird über Küsse, zärtliche Berührungen und Umarmungen seine Zuneigung ausdrücken. Diese hohe Kunst des Tastens auch Robotern beizubringen, ist das Ziel der Forschungen der von Katherine J. Kuchenbecker geleiteten Abteilung Haptische Intelligenz am Max-Planck-Institut für Intelligente Systeme in Stuttgart. Dort hat die Forscherin Alexis E. Block jetzt die dritte Version des HuggieBot vorgestellt, eines Roboters, der liebevolle Umarmungen ausführen kann.

Die ersten Versuche unternahm Block vor vier Jahren mit einem kommerziell verfügbaren Roboter, dem PR2. Der erwies sich aber letztlich als zu kantig und kalt, um seine Umarmungen als angenehm erleben zu können. HuggieBot 2.0 wurde daher von Grund auf neu konstruiert: Er besteht nun aus einem Gestell mit einem aufblasbaren, beheizbaren Ballon als Oberkörper. Daran sind zwei Industrieroboterarme befestigt. Als Kopf dient ein flacher Bildschirm, auf dem ein mit wenigen Strichen stilisiertes Gesicht verschiedene mimische Ausdrücke annehmen kann. Laufen kann der Roboter nicht, aber er kann, wenn er vor sich eine Person erkennt, die Arme öffnen und fragen, ob er bitte umarmt werden könnte: »Can I have a hug, please?«

Wer dieser Bitte nachkommt, wird mit einer Umarmung durch HuggieBot belohnt. Damit sich Menschen in dessen Armen auch wohlfühlen, ist es wichtig, dass der Roboter sich auf deren Größe einstellt und die Umarmung löst, sobald sich die des Menschen lockert. Das ergaben Experimente, bei denen die Versuchspersonen mehrere Umarmungen mit jeweils veränderten Einstellungen vornahmen. HuggieBot ist dafür mit taktilen Sensoren auf dem Rücken ausgestattet, spürt es aber auch in den Armen, wenn sich jemand von ihm lösen will.

HuggieBot 3.0 belässt es jetzt nicht mehr bei der einfachen Umarmung, sondern kann der Person, die er in die Arme geschlossen hat, auch sanft auf den Rücken klopfen, sie streicheln oder sie kurz stärker an sich drücken. Damit sich das nicht zu technisch anfühlt, haben Block und ihr Forschungsteam den Roboter so programmiert, dass er die Gesten des Menschen nicht einfach wiederholt, sondern sie variiert und auch von sich aus die Initiative ergreift. Insbesondere das Drücken wurde von den Versuchsteilnehmern positiv bewertet, weil es einer menschlichen Umarmung sehr nahekäme und ein Gefühl von Sicherheit und Geborgenheit vermittle. Verglichen wurden die Umarmungen durch HuggieBot 3.0 mit denen einer tröstenden Mutter, eines entfernten Verwandten bei einer Trauerfeier und sogar mit einer geliebten Person.

Gegenüber dem Fachmagazin »IEEE Spectrum« hob Block das Fehlen jeglichen sozialen Drucks als Besonderheit hervor: »Du musst nicht fürchten, die Umarmung könne ›zu lange‹ oder ›zu fest‹ sein. Der Roboter ist für dich und deine Bedürfnisse da. Viele Nutzer haben es als angenehm erlebt, sich keine Gedanken darüber machen zu müssen, ob die Umarmung hinsichtlich der Dauer oder Intensität angemessen ist oder nicht.«

Bei all dieser emotionalen Wärme, die der Roboter erzeugt, bleibt er selbst allerdings innerlich kühl. Er könne zwar eine Umarmung recht überzeugend simulieren, betont Block, verfüge aber noch nicht über die nötigen internen Modelle, um selbst an dem emotionalen Erlebnis teilhaben zu können. »Wir versuchen nicht, jemandem etwas vorzumachen und zu behaupten, es fühle sich an wie eine menschliche Umarmung, denn so ist es nicht«, erklärte Block. »Du umarmst einen Roboter. Aber das bedeutet nicht, dass es nicht vergnüglich sein kann.«

Werde Mitglied der nd.Genossenschaft!
Seit dem 1. Januar 2022 wird das »nd« als unabhängige linke Zeitung herausgeben, welche der Belegschaft und den Leser*innen gehört. Sei dabei und unterstütze als Genossenschaftsmitglied Medienvielfalt und sichtbare linke Positionen. Jetzt die Beitrittserklärung ausfüllen.
Mehr Infos auf www.dasnd.de/genossenschaft

Linken, unabhängigen Journalismus stärken!

Mehr und mehr Menschen lesen digital und sehr gern kostenfrei. Wir stehen mit unserem freiwilligen Bezahlmodell dafür ein, dass uns auch diejenigen lesen können, deren Einkommen für ein Abonnement nicht ausreicht. Damit wir weiterhin Journalismus mit dem Anspruch machen können, marginalisierte Stimmen zu Wort kommen zu lassen, Themen zu recherchieren, die in den großen bürgerlichen Medien nicht vor- oder zu kurz kommen, und aktuelle Themen aus linker Perspektive zu beleuchten, brauchen wir eure Unterstützung.

Hilf mit bei einer solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl.

Unterstützen über:
  • PayPal