Ein Robo, der Prost sagt
In Fabrikhallen und ab und an als Staubsauger kommen Roboter schon regelmäßig zum Einsatz. Sie könnten auch noch mehr, beispielsweise als Pflegehilfe im sozialen Bereich - man mag so kalte Maschinen allerdings nicht so recht an sich ranlassen. An der Technischen Universität München entwickeln Forscher deshalb Roboter mit menschlichem Angesicht.
Dr. Takaaki Kuratate spricht mit seinem Roboter. Es hapert noch. "Konnichiwa", "Guten Tag", bekommt die Spracherkennungssoftware der Maschine einfach nicht auf die Reihe. Trotzdem scheinen die beiden zu harmonieren. Wenn er antwortet, blinzelt der Roboter jedenfalls freundlich und verständnisvoll, beziehungsweise der Roboterkopf, eine Art gläserner Maske. Denn mehr haben Dr. Kuratate und seine Kollegen noch nicht gebaut. Angeschlossen ist ein Laptop, auf dem das Sprachprogramm läuft. Das Display zeigt ein Pfannkuchengesicht.
"Das Entscheidende ist eigentlich, dass ich hier im Computer - Sie sehen das hier auf dem Flachbildschirm - ein sehr verzerrtes Bild habe, das dann in der Maske wieder zu einem natürlichen dreidimensionalen Bild wird,"
sagt Dr. Uwe Haass, der Geschäftsführer des Fachbereichs für menschenähnliche Roboter der TU München.
"Von hinten wird dann eben mit diesem Projektor das Gesicht hineinprojiziert. Und der Trick ist, dass eben dieses Gesicht genau auf die Nase und den Mund und die Augen da in dieser Maske kalibriert, also geeicht, werden muss."
Dadurch wird aus dem Pfannkuchengesicht auf dem Laptop ein Roboterkopf mit menschlichen Zügen. So könnte eine Maschine aussehen, mit der man sich wie mit einem Menschen unterhalten kann. Den Rest erledigt die Software: die Bewegung der Lippen beim Sprechen, gelegentlich ein Lächeln oder ein Augenzwinkern. Farbänderungen im Pfannkuchengesicht, erscheinen auf der Maske so, als bewege sich da etwas.
"Und damit kann ich hier ein Muskelspiel simulieren. Im Moment sind wir soweit, dass die Lippen- und die Augenpartien sich bewegen können. Aber der nächste Schritt sind dann die Wangen und andere Teile des Gesichtes."
Der Computer errechnet die Mimik. Und der Projektor projiziert sie in das Robotergesicht. Schneller lässt sich einer Maschine kein menschliches Antlitz verpassen.
"Bisher hat man ja immer versucht, Gesichtsausdrücke, Emotionen im Gesicht mit Mechanik herzustellen, die dann vielleicht mit einer Gummihaut übertüncht wurde, um dann die verschiedenen Bewegungen und Regungen der Muskulatur des Gesichtes nachzubilden."
Aber mit der Projektionsmethode geht das sehr viel effektiver. Und dass Maschinen ein menschliches Antlitz haben, sei wichtig, sagt Brennand Pierce. Er forscht ebenfalls an der TU München und denkt sehr praktisch, was die Zukunft anbelangt. Er hat einen Roboter im Sinn, der ihn nach der Arbeit zuhause bedient. Der sollte schon wie ein Mensch aussehen, findet der britische Wissenschaftler. Sonst bringt einem vielleicht eine blödsinnige Maschine ein Bier. Aber viel lieber hätte er einen Roboter, der lächelt und "Prost" sagt.
Dann könnte man dazu doch sehr viel leichter eine emotionale Beziehung entwickeln, meint Brennand Pierce. Umgekehrt wiederum ist es auch wichtig, dass Roboter, die Emotionen von Menschen richtig einschätzen können, also ihre Gesten verstehen. Daran arbeiten die Forscher der TU ebenfalls. Die Roboter sollen nicht nur gestikulieren können, sondern auch Gesten erkennen.
"Um die Kommunikation noch etwas natürlicher zu gestalten, sehen Sie hier in meiner Hand die nächste Stufe des Projektes. Hier ist bereits eine Web-Kamera oben an der Stirn angebracht, mit der dann auch der Roboter den Menschen sieht, auch die Kommunikation des Menschen besser vielleicht versteht, auch seine Gesten mit einbezieht."
Und schließlich sollen Roboter noch richtig hören lernen, nicht nur was gesagt wird, sondern auch wo.
"Und dann hier an den Seiten sehen Sie schon die Aussparungen, da werden Mikrophone eingebaut, also an jeder Seite ein Mikrophon. Denn er soll auch in der Lage sein, aufgrund seines Stereohörens - das ist praktisch so ähnlich wie ein Kunstkopf, den es ja mal eine Zeit lang gegeben hatte, hier stereomäßig die Richtung des Sprechenden besser orten zu können."
Allerdings: Bis dahin ist noch viel zu tun. Auf der emotionalen Ebene verläuft die Kommunikation zwischen Dr. Kuratate und seinem Roboter zwar äußerst zufriedenstellend. Ständig umspielt ein verständnisvolles Lächeln die Lippen des Androidenkopfes. Aber so richtig zu kapieren, was Dr. Kuratate ihm sagt, scheint er trotzdem nicht.
"Das Entscheidende ist eigentlich, dass ich hier im Computer - Sie sehen das hier auf dem Flachbildschirm - ein sehr verzerrtes Bild habe, das dann in der Maske wieder zu einem natürlichen dreidimensionalen Bild wird,"
sagt Dr. Uwe Haass, der Geschäftsführer des Fachbereichs für menschenähnliche Roboter der TU München.
"Von hinten wird dann eben mit diesem Projektor das Gesicht hineinprojiziert. Und der Trick ist, dass eben dieses Gesicht genau auf die Nase und den Mund und die Augen da in dieser Maske kalibriert, also geeicht, werden muss."
Dadurch wird aus dem Pfannkuchengesicht auf dem Laptop ein Roboterkopf mit menschlichen Zügen. So könnte eine Maschine aussehen, mit der man sich wie mit einem Menschen unterhalten kann. Den Rest erledigt die Software: die Bewegung der Lippen beim Sprechen, gelegentlich ein Lächeln oder ein Augenzwinkern. Farbänderungen im Pfannkuchengesicht, erscheinen auf der Maske so, als bewege sich da etwas.
"Und damit kann ich hier ein Muskelspiel simulieren. Im Moment sind wir soweit, dass die Lippen- und die Augenpartien sich bewegen können. Aber der nächste Schritt sind dann die Wangen und andere Teile des Gesichtes."
Der Computer errechnet die Mimik. Und der Projektor projiziert sie in das Robotergesicht. Schneller lässt sich einer Maschine kein menschliches Antlitz verpassen.
"Bisher hat man ja immer versucht, Gesichtsausdrücke, Emotionen im Gesicht mit Mechanik herzustellen, die dann vielleicht mit einer Gummihaut übertüncht wurde, um dann die verschiedenen Bewegungen und Regungen der Muskulatur des Gesichtes nachzubilden."
Aber mit der Projektionsmethode geht das sehr viel effektiver. Und dass Maschinen ein menschliches Antlitz haben, sei wichtig, sagt Brennand Pierce. Er forscht ebenfalls an der TU München und denkt sehr praktisch, was die Zukunft anbelangt. Er hat einen Roboter im Sinn, der ihn nach der Arbeit zuhause bedient. Der sollte schon wie ein Mensch aussehen, findet der britische Wissenschaftler. Sonst bringt einem vielleicht eine blödsinnige Maschine ein Bier. Aber viel lieber hätte er einen Roboter, der lächelt und "Prost" sagt.
Dann könnte man dazu doch sehr viel leichter eine emotionale Beziehung entwickeln, meint Brennand Pierce. Umgekehrt wiederum ist es auch wichtig, dass Roboter, die Emotionen von Menschen richtig einschätzen können, also ihre Gesten verstehen. Daran arbeiten die Forscher der TU ebenfalls. Die Roboter sollen nicht nur gestikulieren können, sondern auch Gesten erkennen.
"Um die Kommunikation noch etwas natürlicher zu gestalten, sehen Sie hier in meiner Hand die nächste Stufe des Projektes. Hier ist bereits eine Web-Kamera oben an der Stirn angebracht, mit der dann auch der Roboter den Menschen sieht, auch die Kommunikation des Menschen besser vielleicht versteht, auch seine Gesten mit einbezieht."
Und schließlich sollen Roboter noch richtig hören lernen, nicht nur was gesagt wird, sondern auch wo.
"Und dann hier an den Seiten sehen Sie schon die Aussparungen, da werden Mikrophone eingebaut, also an jeder Seite ein Mikrophon. Denn er soll auch in der Lage sein, aufgrund seines Stereohörens - das ist praktisch so ähnlich wie ein Kunstkopf, den es ja mal eine Zeit lang gegeben hatte, hier stereomäßig die Richtung des Sprechenden besser orten zu können."
Allerdings: Bis dahin ist noch viel zu tun. Auf der emotionalen Ebene verläuft die Kommunikation zwischen Dr. Kuratate und seinem Roboter zwar äußerst zufriedenstellend. Ständig umspielt ein verständnisvolles Lächeln die Lippen des Androidenkopfes. Aber so richtig zu kapieren, was Dr. Kuratate ihm sagt, scheint er trotzdem nicht.