mirror_0.2 – Ein Spiegel, in dem man sich nicht selber sieht

mirror_886x590,

mirror_0.2“ ist eine interaktive Installation, die versucht, das Spiegelbild der Betrachterin oder des Betrachters durch das des Künstlers zu ersetzen. Der oder die BetrachterIn steht vor einem Bildschirm, der wie ein Spiegel aussieht. Der Hintergrund wird durch einen 3D-Scan gebildet, der dem Hintergrund des realen Raumes hinter dem oder der BetrachterIn gleicht. Zusätzlich wird der virtuelle Raum physikalisch korrekt verzerrt und so die Illusion eines Spiegels verstärkt. Eine Kinect, die über dem Bildschirm platziert ist, erfasst Position und Mimik der davorstehenden Person. Ändert die Person die Mimik, die Position oder den Abstand zum Spiegel, wird dies von einer Software erkannt und durch passende Bilder des Künstlers ersetzt. Anstatt sich selbst im Spiegel zu sehen, sieht die davorstehende Person also den Künstler, der die Person jedoch imitiert.

Etwa 100.000 Aufnahmen hat der Künstler Gregor Woschitz für diese Installation von sich mit verschiedenen Gesichtsausdrücken, Kopfneigungen und Positionen gemacht. Eine Software vergleicht, welches dieser Fotos am ehesten dem Gesichtsausdruck der Betrachterin oder des Betrachters ähnelt und zeigt jene Fotos an, auf denen die Mimik der davorstehenden Person am meisten ähnelt.

Im Interview erklärt uns Gregor, warum er sich nun schon seit sieben Jahren mit diesem Projekt beschäftigt, wie er es schaffte 100.000 Aufnahmen mit verschiedenen Gesichtsausdrücken zu machen und warum der „mirror_02 trotzdem Probleme mit bärtigen Brillenträgern hat.

Was hat dich zu „mirror_0.2“ inspiriert? Was ist die Idee dahinter?

Gregor Woschitz: Die ersten Überlegungen zu dieser Installation hatte ich schon 2009/2010. Ein Lehrer in der HTL hat uns ein Video gezeigt, wie man mit einer Infrarot-Kamera und einigen LEDs Personen im dreidimensionalen Raum erfassen kann. Das hat mich zu interaktiven Arbeiten inspiriert. Als ich dann 2011 an die Kunstuni Linz kam, hatte ich bereits ein – zugegeben etwas naives – Konzept. Von Beginn an war ich darauf aus, mir das nötige Know-How anzueignen, um dieses Projekt umzusetzen.

Ursprünglich wollte ich mit dem „mirror“ das ultimative Selbstportrait schaffen. Ich wollte die Betrachterinnen und Betrachter sehen lassen, was ich sehe. Diese Motivation teile ich ja mit vielen Künstlerinnen und Künstlern. Während der Arbeit hat sich das Projekt konzeptuell aber noch weiterentwickelt und wirft nun Fragen auf wie: Was bleibt vom Menschen, wenn man seine Identität digitalisiert? Können Maschinen Empathie vermitteln? Werden in der Zukunft digitale Avatare unsere Ansprechpartner sein? Manche haben den „mirror“ auch schon als Seitenhieb auf die Selfie-Kultur verstanden. Ein Spiegel, in dem man sich nicht selber sehen kann.

https://www.youtube.com/watch?v=S05XhTM5b9E

Gab es auch einen „mirror_0.1“? Was ist der Unterschied zur aktuellen Version?

Gregor Woschitz: Ja es gab auch eine Version 0.1. Und davor noch gefühlte hundert andere Versionen. Der Unterschied zwischen den Versionen liegt vor allem an der Anzahl der verwendeten Aufnahmen und ihrer Darstellung. Auch am Sound, an der internen Logik und der Effizienz der Berechnungen habe ich immer wieder nachgebessert. Man wird mit der Zeit einfach besser im Umgang mit dem Rechner und das spiegelt sich – im wahrsten Sinne des Wortes – auch in der Arbeit wieder.

Du hast etwa 100.000 Fotos mit unterschiedlichen Gesichtsausdrücken, Kopfneigungen und Positionen von dir gemacht. Wie lange hast du dafür gebraucht und wie bist du dabei vorgegangen?

Gregor Woschitz: Das Shooting darf man sich so vorstellen: Ich sitze alleine vor der Kamera, schaue in die Linse und versuche, den Oberkörper nicht zu bewegen. Ich neige den Kopf in alle Richtungen und versuche dabei alle Kombinationen von Mimik und Achsenrotationen abzudecken. Dabei lernst du deine Gesichtsmuskulatur intensiv kennen… Nach einiger Zeit beginnen beispielsweise die Muskeln im Mundwinkel zu krampfen und zucken. Da jedoch das Lächeln am „mirror“ nicht gequält oder verkrampft wiedergegeben werden soll, müssen die Sessions immer wieder unterbrochen werden. Es zieht sich also über viele Tage.

gregorwoschitz_886x590

Credit: Gregor Woschitz

Es gibt unzählige Gesichtsausdrücke! Erkennt der mirror_0.2 wirklich jeden?

Gregor Woschitz: Nein. Der „mirror_0.2“ kennt zwar bereits eine große Bandbreite an Gesichtsausdrücken, doch das menschliche Gesicht bewegt sich differenzierter, als die Maschine es (bislang) erkennen kann. Ich führe auch selber Experimente durch, um dem Computer spezielle Mimik beizubringen. Mikroexpressionen zum Beispiel werden im menschlichen Unterbewusstsein wahrgenommen und sind ein wichtiges Element der nonverbalen Kommunikation. Für den „mirror“ sind sie jedoch noch eine Nummer zu viel. Schwierigkeiten bekommt die Hard- und Software auch noch manchmal bei bärtigen Brillenträgern. Das Hinzufügen jedes weiteren Gesichtsausdrucks zum Projekt verdoppelt nicht den Aufwand für Mensch und Maschine, sondern potenziert ihn. Es sind also weniger Gesichtsausdrücke als ich ursprünglich geplant hatte, aber doch mehr, als die meisten Betrachterinnen und Betrachter erwarten.

Was war das schwierigste an diesem Projekt?

Gregor Woschitz: Eindeutig das Optimieren der Software. Den ersten funktionierenden Prototypen habe ich als Anfänger während einer  Zugfahrt programmiert. Doch die Realität hat meine anfängliche Euphorie bald eingeholt. Man kann nicht einfach eine riesige Datenbank erstellen und erwarten, dass der Computer diese n-dimensional in Echtzeit abfragen kann (außer man hat einen Quantencomputer). Deshalb musste ich genauer werden und die Abläufe im Programm ausdifferenzieren und präzisieren. Je genauer die Befehle sind, desto schneller kann sie der Computer durchführen.

Die Ausstellung „TIME OUT .06” eröffnet am MI 8.6.2016, 18:30, im Ars Electronica Center Linz: https://ars.electronica.art/center/eroeffnung-time-out-06/

, ,