Ravel trifft das Ars Electronica Futurelab an der L.A. Phil

Legendäre Konzertorte wie die Disney Hall der L.A. Philharmonie sind bekannt für ihre zukunftsweisenden Events. Passenderweise wurde das Ars Electronica Futurelab für drei Abende von 12. bis 14. Februar zur Visualisierung von "Mother Goose", dem bekannten Märchenzyklus von Maurice Ravel, nach Los Angeles eingeladen.

| | |

Der „Walk Of Fame“ liegt nur 30 Minuten Metrofahrt von der Walt Disney Concert Hall entfernt. Für „30 Minutes of Fame“ nimmt das Ars Electronica Futurelab die Distanz von 9716 km zwischen Linz und Los Angeles gerne in Kauf, denn schließlich ist die Einladung zur Visualisierung von Ravel’s „Mother Goose“ im Rahmen der inSIGHT Series an der L.A. Phil ein Prestige-Projekt – das zudem bezahlt wird. Um der Sache gerecht zu werden, muss man die Inszenierung dreier weiterer Klassikstücke an den drei Folgeabenden nennen: Tanguy Affettuoso, Dutilleux: Correspondances und Pulenc’s Orgelkonzert in G Moll bilden das ebenfalls abstrakt visualisierte Vorprogramm zu dem unumstößlichen Höhepunkt.

Premiere war am 12. Februar – gleich danach haben wir mit Gerfried Stocker, künstlerischer Geschäftsführer von Ars Electronica und Horst Hörtner, seines Zeichens Senior Director des Ars Electronica Futurelab, über das Projekt gesprochen.

Zu allererst – wie wars?

Gerfried Stocker: Die Publikumsresonanz war super positiv, wir haben wohl alles richtig gemacht.
Horst Hörtner: Es lief mit dem Zusammenspiel auch unglaublich gut. Die sorgfältige Vorbereitung und die Proben haben sich voll und ganz ausgezahlt.

Gibt es einen Unterschied in der Akzeptanz solch modernen Visualisierungen klassischer Stücke im Land der unbegrenzten Möglichkeiten?

Gerfried Stocker: Musikvisualisierungen sind hierzulande aber auch generell ein schwieriges Terrain. Wir machen das jetzt seit mittlerweile zwölf Jahren und stets stand und steht die Frage der Synästhesie im Raum. MusikliebhaberInnen, KennerInnen und KomponistInnen beklagen oft, dass durch die Visualisierung nur abgelenkt wird. Anders gesagt, geht es bei jeder Konzertvisualisierung darum, eine Aufmerksamkeitskonkurrenz zu vermeiden, die klarerweise niemanden nutzt. Wobei das immer von ganz spezifischen, nicht zu verallgemeinernden Aspekten abhängt – allein die Architektur jeder Konzerthalle hat etwa großen Einfluss auf die Erwartungshaltungen.

„Das Reizvolle, gerade an der L.A. Phil, ist ein In-Konkurrenztreten mit der auffälligen Raumarchitektur von Frank Gehry. Da entsteht quasi ein „Ökosystem der Aufmerksamkeiten, das sich mehrere Player teilen müssen. Wir hängen da alleine 7 Projektionsflächen auf, keine geringe Konkurrenz… und auch ein Grund warum wir nicht nur Mother Goose visualisieren, sondern den ganzen Abend.“

Florian Berger (left) and Gerfried Stocker (right) is setting up the equipment. Credit: Roland Aigner

Florian Berger (links) und Gerfried Stocker (rechts) während den Vorbereitungen. Credit: Roland Aigner

Horst Hörtner: Bei den ersten drei Stücken benutzen wir nur sechs von den sieben Screens und erst bei „Mother Goose“ kommen alle zum Einsatz. Die Screens sind symmetrisch in der Halle verteilt, hinter und über dem Orchester, und zwar so, dass das Publikum von allen Seiten eine wirklich hervorragende Sicht hat.

Wer kam überhaupt auf die Idee Ravel‘s Märchenzyklus in seiner konzertanten Ballettversion in die Welt der Abstraktion zu überführen?

Gerfried Stocker: Die Idee zur abstrakten Visualisierung von „Mother Goose“ kam vom Dirigenten Esa Pekka Salonen. Er hat uns gebeten, uns vom klassischen Ansatz der Ballettaufführung zu lösen, da sein Interesse an dem Stück vielmehr der klangmalerischen Qualität gilt. Es ist wirklich spannend zu hören, wie er das Stück in den vergangenen Jahren weiterentwickelt und jede einzelne Klangfarbe des Orchesters herausarbeitet hat. Das war für uns dann auch der eigentliche Impuls für unsere Visualisierung, die sich seit dem ersten Treffen im April 2015 immer weiter von der strengen Ausrichtung auf die Handlung gelöst hat.

mother-goose--ars-electronica-futurelab-at_24975982115_o

Komplett verkabelt: Die Hardware des Futurelabs ist bereit für ihren Einsatz. Credit: Roland Aigner

Zum Beispiel bei der Sequenz von „Die Schöne und das Biest“ zeigen wir den Antagonismus der Originalfiguren in Form einer sich verändernden Landschaft. Wir haben dafür ein Programm entwickelt, das dem Computer Pinseln gibt, mit denen aus den Klangfarben heraus eben diese Landschaften gemalt werden. Die Ambiguität des Verhältnisses zwischen „schön“ und „hässlich“ wird durch die fragile, sich ständig verändernde Landschaft ausgedrückt. Das mag ein durchaus hoher Abstraktionsgrad sein, wenn man an die Handlung denkt, nicht aber, wenn man gedanklich an die Musik selbst anknüpft.

Gibt es bei aller Abstraktion nicht dennoch einen stilistischen Rahmen?

Horst Hörtner: Da es ein Stück ist, das Ravel für Kinder geschrieben hat, sind die grafischen Umsetzungen teils fast schon kitschig. Aber eben nur „fast“ – ich will damit sagen, dass die grafischen Umsetzungen rührend schön sind. Wir haben eine visuelle Sprache entwickelt, die malerische Tendenzen hat. Wir verweben darin klassische Elemente der kunstgeschichtlichen Epoche, die zur Zeit der Entstehung des Stückes geherrscht hat, also die Vorläufer des Impressionismus aber auch das Experimentelle in der Architektur – und darüber hinaus auch die Vorgeschichte dessen, das heißt die Romantik.

Belle et Bete (4)

La belle & Bete – Visualisierung des Ars Electronica Futurelab. Credit: Ars Electronica Futurelab

laideronette (1)

La Laideronette – Visualisierung des Ars Electronica Futurelab. Credit: Ars Electronica Futurelab

Gerfried Stocker: Es gehört zum künstlerischen Prozess, dass sich über das Tun ein Rahmengerüst ergibt. Da Kunst ein Panoptikum der Vergleiche bietet, hat sich der von Horst beschriebene Aspekt der Einflüsse beim Tun ergeben und folglich dieses Kernelement herausgebildet.

Stichwort Live-Faktor… ein Publikum erwartet beim Besuch eines Konzerts das Unvorhersehbare, und gerade bei digitaler Kunst steht die Frage im Raum, wo denn der Mensch dahinter ist. Wie begegnet man dem Vorurteil, dass diese Visualisierung ebenso ein Screensaver sein könnte?

Gerfried Stocker: Wahrscheinlich machen wir bei unserer Darbietung mehr spontane Eingriffe als das perfekt eingespielte Orchester der L.A. Phil. Wir proben seit vielen Monaten, in denen wir das Projekt vorantreiben. Zuerst studiert man die Partitur oder geht von einer CD-Aufnahme aus. So entsteht Modul um Modul und dann muss man dem Computer quasi beibringen, in jeder Situation der Musik sich in einer definierten Art „zu verhalten“. Da fängt dann der künstlerische Prozess an. Wir orientieren uns Satz für Satz am Arrangement und kennen unsere Einsätze… wie wir dann spielen ist extrem durchkomponiert. Die Formveränderung ergibt sich aus den Klangfarben der Instrumentalgruppen.

Screens

Sieben Projektionsflächen „treten in Aufmerksamkeitskonkurrenz“ mit der Disney Hall-Raumarchitektur der L.A. Phil. Credit: Roland Aigner

Horst Hörtner: Die Zwischenspiele, auf die sich unsere Kollegen Florian Berger und Roland Aigner beim Livemix konzentrieren, funktionieren als Bindeglieder und werden mittels der Schatten orchestriert, die die MusikerInnen werfen. Sie sind angelegt wie die REM-Phase eines Schlafs, oder eine Art Halbschlaf. Insofern sind die Interludes mit den Schatten etwas „gegenständlicher“. Man stelle sich vor, man träumt die Geschichte von „Mother Goose“ und zwischendurch wird man immer wieder aus diesen Träumen gerissen. Dort werden dann die MusikerInnen zum visuellen Beitrag, oder anders gesagt, sie rücken via Livekameras ins Zentrum der Darstellung. Diese Schatten sind aber nicht gänzlich gegenständlich, sondern durchaus etwas abstrahiert, man erkennt in ihnen vielleicht ein Monster, das durch die Szenerie marschiert. Es wird eine Mischung aus einem Livemix unter den „Traumgeneratoren“ und einem Livemix unter den Schattengeneratoren und einen Livemix von diesen Livemixes geben. Die Träume macht Gerfried und ich mische dann als Masterkontroller die jeweils gelieferten Bilder wieder zusammen. Ich bin sozusagen die letzte Hoheit vor der Projektion.

mother-goose--ars-electronica-futurelab-at_24857969262_o

Ein Testlauf der Visualisierung vor der Generalprobe. Credit: Roland Aigner

Zu der „märchenhaften“ Aufführung äußerte sich auf Seiten der L.A. Philharmonie Meghan Martineau, Ihres Zeichens Associate Director of Artistic Planning äußerst begeistert über die Zusammenarbeit mit dem Team des Ars Electronica Futurelab.

Wie ist die L.A. Phil auf das Futurelab aufmerksam geworden?

Meghan Martineau: Wir hörten das erste Mal vom Ars Electronica Futurelab von der Prinzessin Irina of Sayn-Wittgenstein-Berleburg, der internationalen Repräsentantin des Abu Dhabi Festivals, die mit unserem Musikalischen Direktor, Chad Smith einige verschiedene Projekte am Laufen hat und uns durch ihren Kontakt zu Gerfried und Horst das Ars Electronica Festival kannte. Sie war so begeistert von den ungewöhnlichen Dingen die in Linz passieren, dass Chad vor eineinhalb Jahren den Kontakt aufnahm – auch er war von dem transdisziplinären und nach vorne gerichteten Ansatz dermaßen begeistert, dass es klickte und somit beschloss mit dem Futurelab zusammenzuarbeiten. Zu dem Zeitpunkt waren wir gerade die Saison 2015/2016 am Planen und nach der Zeitmessung in unserem Business ist ein Jahr sogar eine ziemlich kurze Zeitspanne um einen derartigen Act zu integrieren.

„Chad war felsenfest davon überzeugt, dass eine Kooperation Sinn macht, weil sowohl die L.A. Philharmonie als auch das Ars Electronica Futurelab auf einer Wellenlänge sind, was das Betreten neuer künstlerischer Pfade angeht. Auch die Art der fortschrittlichen Denkweise, wie man zu einem Publikum Kontakt aufbaut, spricht für diese Synergie.“

Esa-Pekka Salonen

Esa-Pekka Salonen, Chefdirigent und künstlerischer Berater des Philharmonischen Orchesters. Credit: L.A. Phil

Was ist der Unterschied zu den anderen KünstlerInnen, die bei der inSIGHT Series den Part des Visualisierens übernehmen?

Meghan Martineau: Alle KünstlerInnen, die für die inSIGHT Series arbeiten, haben sehr unterschiedliche Herangehensweisen. Letzte Saison hatten wir beispielsweise Steve Reich und Beryl Korot mit „Three Tales“ – eine Video-Oper, das heißt eine audio-visuelle Komposition. Mit Ars Electronica Futurelab haben wir nun eine Komposition von Beginn des 20. Jahrhunderts, die im Nachhinein und darüber hinaus auf eine abstrakte Art und Weise visualisiert wird. Die große interpretatorische Freiheit führt dazu, dass etwas völlig Eigenständiges entsteht. An der Musik lässt sich ja nichts ändern – also ist es die Herausforderung im Vorfeld alle Unwägbarkeiten abzuklären, damit ein sinnvolles Kunstwerk entstehen kann. Das Außergewöhnliche an der Futurelab-Methode ist die Abnahme des Audiofeed, der mittels eines programmierten Codes Bilder generiert. Das ist eine völlig eigenständige Herangehensweise.

Wie kam Dirigent Esa-Pekka Salonen auf die Idee einer abstrakten Visualiserung?

Meghan Martineau: Nun, jeder kennt die Stories von „Mother Goose“, jeder hat seine Vorstellung vom Däumling oder den Bösewichtern in den einzelnen Passagen. Die Idee war, das Publikum von seinen vorgefertigten Bildern zu lösen und viel mehr die Stimmung der einzelnen Erzählstränge heraufzubeschwören. Wir haben bei den ersten Visualisierungen 2003/2004 die Erfahrung gemacht, dass das Publikum hervorragend auf solche Experimente anspricht. Die inSiGHT Serie ist schlichtweg die Manifestation dessen, was wir als Top-Priorität für unser Programm ansehen, nämlich das Mischen verschiedener Kunstformen. Letzte Saison hatten wir vergleichbar mit Ravel, Beethovens „Missa Solemnis“ – und die Reaktionen waren unglaublich positiv. Publikum und Kritiker waren sich gleichermaßen einig, dass die Viualisierung nur zum Verständnis der Komposition beigetragen hat.

„Diese Saison legen wir die Latte mit dem Futurelab noch etwas höher, denn es ist das technisch anspruchsvollste Team, das wir bis jetzt dabei gehabt haben. Alleine die Screen-Installation ist so einzigartig, etwas das ich nie zuvor gesehen habe. Dadurch wird der Eindruck so allumfassend wie nie zuvor.“