Roboter mit menschlichem Gesicht und natürlicher Mimik

333194197787

Wissenschaftler der TU München haben zusammen mit japanischen Kollegen eine Möglichkeit entwickelt, Robotern ein menschliches Gesicht zu verpassen. Dazu wird ein Beamer eingesetzt, der das Angesicht von Innen auf den halbdurchsichtigen Kopf projiziert.

Der Mask-Bot ist ein Kunststoffkopf, in dessen Inneren ein Projektor ein menschliches Gesicht projiziert. Die Lösung könnte zum Beispiel genutzt werden, Gesprächspartner in Videokonferenzen als eine Art Avatar an den Tisch holen. Das Projekt ist Teil des Münchener Roboter-Exzellenzclusters CoTeSys.

Die Entwicklung vom Institut für Kognitive Systeme (ICS) der TU München soll Art und Weise prägen, wie Menschen in Zukunft mit Robotern kommunizieren, prognostiziert Prof. Gordon Cheng, der Leiter des ICS-Teams.

Durch die 3D-Projektion soll das Gesicht auch von der Seite noch recht realistisch wirken. Ganz neu ist die Idee mit den projizierten Gesichtern jedoch nicht, wie die Wissenschaftler auch selbst zugeben. Walt Disney ließ schon in den 1960er- Jahren für seine Spukhaus-Installationen die Gesichter Grimassen schneidender Schauspieler auf Büsten projizieren, die damit zu sprechenden Köpfen wurden. Damals wurden die Masken jedoch von vorne beleuchtet.

Die Projektionstechnik ist nun innerhalb des Maskenkopfes untergebracht. Dazu musste eine Fischaugenlinse mit einem Makroadapter kombiniert werden. Nur so kann bei einem Abstand von zwölf Zentimetern zwischen Linse und Gesichtsmaske das komplette Gesicht abgebildet werden. Der Beamer soll für die Tageslichtnutzung hell genug sein.

„Mask-Bot kann dabei das bislang übliche Monitorbild einer Person durch eine echte Nachbildung ersetzen, die mit am Tisch sitzt und genauso aussieht und spricht“, sagt Takaaki Kuratate der TU München.

Künftig soll auch auf Basis eines zweidimensionalen Fotos ein Gesicht extrahiert und animiert werden können. Für das Mienenspiel hat Takaaki Kuratate die „Talking Head Animation Engine“ entwickelt. Sie sammelt Daten über das Mienenspiel menschlicher Probanden und entwickelt daraus Gesichtsausdrücke, die mit der „Emotion Synthesis Software“ für die Animation genutzt werden können. [Andreas Donath]

[Via Institut für Kognitive Systeme (ICS) TU München]

YouTube Preview Image

[Bilder: Uli Benz / Technical University of Munich]

Tags :

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Advertising