Anzeige
Immer auf dem neuesten Stand mit unserem Newsletter

„Gesichter realistisch zu animieren – das ist der heilige Gral“

Prof. Dr.-Ing. Marcus Magnor, Leiter des Instituts für Computergraphik an der TU Braunschweig, im Interview

Prof. Dr.-Ing. Marcus Magnor, Leiter des Instituts für Computergraphik an der TU Braunschweig. Foto: Institut für Computergraphik

Herr Prof. Magnor, Virtual Reality ist eines der Themen unserer Zeit. Wo kommt da das Institut für Computergraphik ins Spiel?

Wir arbeiten beispielsweise mit VR-Brillen, in die wir Eyetracker implantiert haben. Das ermöglicht dann, im Anschluss jene Bereiche besser zu berechnen und darzustellen, die der User am meisten beachtet. Die Herausforderung ist unter anderem, kollaborativ in virtuellen Welten unterwegs zu sein, also mit mehreren Nutzern gleichzeitig. Noch fühlt sich das sehr seltsam an, weil sich die virtuellen Avatare nicht wie im natürlichen menschlichen Kontakt direkt ansehen können; der gewohnte Augenkontakt nicht korrekt ins Virtuelle übertragen werden kann.

Was antworten Sie Skeptikern, die durch solche Entwicklungen zwischenmenschliche Entfremdung befürchten?

Es gibt eine Reihe von Entwicklungen in diesem Bereich, die nicht nur unterhalten, sondern Menschen helfen sollen – beispielsweise bei Höhenangst. Dass die Menschen in der virtuellen Realität tatsächlich Angstschweiß bekommen und sich teilweise auf allen Vieren fortbewegen, weil sie sich dann sicherer fühlen, macht deutlich, wie weit diese Technologie bereits ist. Wir Menschen sind visuelle Wesen. Obwohl man in der VR ja nichts berühren kann, reicht das Bild aus, um das Gefühl zu erzeugen, man stehe in schwindelerregender Höhe.

Aber wenn ich durch eine Welt gehe, z. B. den Amazonas erkunde, stoße ich doch ziemlich schnell an die Grenzen meiner vier Wände …

Da sind Sie bei der Holodeck-Vision von Star Trek. Auch dafür gibt es bereits erste Ansätze, zum Beispiel mit Laufbändern. Oder man suggeriert dem VR-Brillenträger, der Weg, den er geht, sei gerade, doch in Wirklichkeit wird das Bild immer ein wenig gedreht, sodass der Betrachter automatisch dagegen steuert. Letztlich kommt einem ein Raum von endlicher Größe dann unendlich groß vor – dabei läuft man im Kreis. Aber etwas in der VR anzufassen, das wird noch eine ganz große Herausforderung – weil die Berührung ja synchron zum Betrachten ablaufen muss.

Was braucht es, damit etwas für uns realistisch wirkt? Aktuell lassen sich viele Renderings ja noch auf den ersten Blick entlarven …

Wir Menschen sind sehr gut darin, zu erkennen, was real ist. Es gibt zwar auch Dinge, da ist es verblüffend, wie weit man von der Realität abweichen kann, ohne dass es auffällt, bei anderen aber sind wir ganz empfindlich. So zum Beispiel bei Gesichtern. Diese so auf dem Rechner zu erzeugen, dass sie uns authentisch erscheinen, ist eine große Herausforderung. Noch eine Stufe anspruchsvoller: Gesichter realistisch zu animieren – das ist der heilige Gral. Da landet man ganz schnell im sogenannten Uncanny Valley …

… und das ist ungut weil?

Uncanny Valley oder auch Akzeptanzlücke meint den Bereich zwischen klar computeranimierten Gesichtern und Fotos oder Videos von echten Personen. Das Phänomen, wenn unser Gehirn merkt: bei dem Gesicht stimmt etwas nicht. Wir haben vor kurzem Untersuchungen mit einem EEG durchgeführt, um herauszufinden, woran das liegt und woher das kommt. Die Psychologen kennen schon seit Längerem ein typisches Signal, dass das Gehirn im EEG zeigt, wenn wir uns getäuscht fühlen – eine Art negativer Überraschungseffekt. Genau diesen Effekt beobachteten wir bei Probanden, denen wir digital erzeugte Gesichter zeigten, die in das Uncanny Valley fielen, also fast, aber nicht ganz real aussahen.

Wie ist das bei deutlich überzeichneten Bildern, wie man sie von Cartoons kennt?

Da bleibt dieser Effekt aus, denn das Bewusstsein realisiert: Ich erkenne ein Gesicht und die Mimik, aber es ist eindeutig kein Mensch und ich fühle mich nicht getäuscht. Pixar ist da ein Vorreiter und hat computergenerierte Charaktere perfektioniert, es jedoch stets verstanden, sich vom Uncanny Valley fernzuhalten. Die Figuren aus Toy Story oder Monster AG beispielsweise vermenschlichen zwar Wesen und bieten Fläche zur Identifikation, aber der Betrachter hat nie das Gefühl, sie wollten Menschen sein.

Welches ist das Paradebeispiel für einen Uncanny-Valley-Film?

Auf jeden Fall den Film „Der Polarexpress“. Mehr „uncanny“ könnten Figuren kaum sein. Sie sind deutlich computeranimiert, versuchen aber, realistisch zu sein – das haut nicht hin. Meine Kinder haben den Film gesehen, als der jüngste sechs Jahre alt war; er wollte ihn partout kein zweites Mal anschauen.

Wie viel muss der Mensch noch zu solch computergestützten Umsetzungen beitragen?

Das Feinmodellieren muss ein Mensch umsetzen. Effekte wie die Lichtverhältnisse kann ein Rechner berechnen, aber das, worauf es am meisten ankommt, die Details, dafür benötigt man etliche Stunden menschlicher Arbeit. Es gibt Bestrebungen, Objekte, Geometrie, Beleuchtung, Bewegung usw. aus echten Bildern zu extrahieren, da sind wir auch dran, aber auch das ist eine Kunst für sich. Das Büro, in dem wir gerade sitzen, manuell nachzubauen, würde sicher über eine Woche dauern. Man könnte den Raum aber auch in 100 Fotos festhalten, einen Rechner mit entsprechenden Algorithmen drüberlaufen lassen und so mein Büro automatisiert digital nachbauen. Bewegung oder verdeckte Objekte, die die Fotos nicht erfassen konnten, machen es aber auch dann wieder schwierig.

Welchen Mehrwert bringt Computergraphik?

Computergraphik will das Beste aus der realen und der digitalen Welten miteinander verbinden: Den Realismus und die Simplizität einer simplen Kameraaufnahme mit der Flexibilität und Wandelbarkeit einer computergenerierten Ansicht, in der man mit den einzelnen Szenenelementen spielen, Objekte verschieben, Lichtverhältnisse und Blickpunkte beliebig verändern kann.

Und in welchen Bereichen sind diese Grafiken eine Bereicherung?

Das Brot- und Buttergeschäft der Computergraphik bilden Hollywood und die interaktive Unterhaltungsindustrie, also Computerspiele. Filme wie Avatar zeigen, wie viel Geld Hollywood in Computergraphik investiert. Für den Science-Fiction-Film „Matrix“ aus dem Jahr 1999 hat man 200 Spiegelreflexkameras aufgestellt, die exakt ausgerichtet werden und computergesteuert minutiös nacheinander auslösen mussten. Szenen, die so viel kosten, dass man sie nur einmal drehen kann. Da ist man in der Grafik mittlerweile so weit, dass statt 200 Kameras auch zwölf ausreichen und Dinge anschließend computerbasiert rekonstruiert werden können.

Ihre drei persönlichen Favoriten in Sachen Animationsfilme?

„Matrix“ und „Avatar“ waren Meilensteine. Ich persönlich mag auch die meisten PixarFilme sehr gerne. Auch da gab es regelmäßig grafische Leuchtturmprojekte. Bei „Die Monster AG“  wurde im Jahr 2001 zum Beispiel erstmals realistisch Fell imitiert. Und auf der Computerspieleseite hat „Grand Theft Auto“ immer wieder Maßstäbe gesetzt.

Was sind aktuelle Projekte Ihres Institutes?

Zum einen haben wir Prototypen für eine VR-Eye-Tracking-Brille entwickelt, um an der besseren Interaktion mehrerer Teilnehmer in VR zu forschen. Wir führen auch Tests mit dem EEG durch und sehen, was wir Menschen laut Befragung nicht bewusst wahrnehmen, unser Gehirn aber schon. So erfahren wir mehr über unsere selektive Wahrnehmung. Solche Erkenntnisse können auch fürs autonome Fahren interessant sein, denn wir Menschen sind eigentlich sehr gute Autofahrer, an denen sich autonome Fahrzeuge messen lassen müssen.

Was wünschen Sie sich für die Zukunft Ihres Faches?

… dass Informatik verbindlich in der Schule gelehrt wird. Es wundert einen, dass überall von Digitalisierung gesprochen wird, die Grundlagen dafür aber nicht schon in der Schule geschaffen werden. Zugang zum Programmieren finden junge Menschen bislang eher durch Zufall, entweder Zuhause oder über Freunde, aber nicht systematisch wie etwa im Physik- oder Chemieunterricht. Dabei ist Informatik eine sehr kreative Tätigkeit; beim Programmieren wird man, funktioniert etwas nicht wie gewollt, immer auf sich selbst zurückgeworfen; man steht im Dialog mit sich selbst. Das Glücksgefühl ist dann aber umso größer, wenn das selbst geschriebene Programm am Ende reibungslos läuft.

Schlagwörter
Prof. Dr.-Ing. Marcus Magnor, Leiter, Institut für Computergraphik, TU Braunschweig, Interview


Kommentar schreiben
Um zu kommentieren, müssen Sie sich anmelden!
In diesem Artikel genannte Unternehmen
Anzeige
Anzeige
Anzeige
Anzeige