Simple Harmonic Motion #5, #5r, #9l / Memo Akten (TR) Credit: vog.photo

AI x Music

Exhibition at the Ars Electronica Center

Das Potenzial von künstlicher Intelligenz in musikalischen Anwendungen wurde in den letzten Jahren durch verschiedene Projekte unter Beweis gestellt. Moderne KI kann sicherlich als ein weiterer Schritt zur Erweiterung der musikalischen Möglichkeiten durch den Einsatz von Technologie gesehen werden.

Die Verbindung zwischen Musik und Technologie hat eine lange Tradition, von den ersten Instrumenten, die als Ergänzung zur menschlichen Stimme dienten, bis hin zu den mechanischen und elektronischen Instrumenten (oder Automaten), die im Lauf der Menschheitsgeschichte entstanden sind.

Das Ars Electronica Center widmet diesem Thema seit 2019 eine eigene Ausstellung. Unter dem Titel „AI x Music“ verfolgt die Ars Electronica anhand verschiedenster Exponate über 1.000 Jahre Kultur- und Technikgeschichte von Musikautomaten, Maschinen und Systemen zur Komposition und Wiedergabe.

Schon im 9. Jahrhundert schilderte Banū Mūsā ibn Shākir aus Bagdad mit al-Āla allatī tuzammir bi-nafsihā den ersten programmierbaren Musikautomaten – ein Nachbau davon ist in „AI x Music” zu sehen. Von diesen Anfängen reicht die Ausstellung bis hin zum Computerflügel Bösendorfer 290 Imperial CEUS, der mit einem der modernsten und präzisesten integrierten Aufnahme- und Wiedergabesysteme ausgestattet ist, die heute verfügbar sind.

Der Flügel wurde vom Ars Electronica Futurelab mit vier Anwendungen aus der aktuellen Forschung zu künstlicher Intelligenz in der Musik verknüpft. Performance RNN aus dem Google-Projekt Magenta basiert auf einem Recurrent Neural Network (RNN), das selbständig polyphone Musik erzeugt. Man kann noch recht unbeholfene Improvisationen hören. Piano Genie, ebenfalls von Magenta, ermöglicht es den Besucher*innen, das Klavier mit 88 Tasten über einen Controller mit 8 Tasten zu spielen. Die Schnittstelle vereinfacht und unterstützt das Musizieren für alle Benutzer*innen. Das KI-Model <MuseNet von der Forschungsorganisation Open-AI kann verschiedene musikalische Stile imitieren. Wie das ebenfalls im Ars Electronica Center präsentierte Sprachmodell GPT-2 arbeitet MuseNet mit einem einmalig großen Datensatz aus Beispielen. Aus diesem Pool von Musikstücken mit ihren wiederkehrenden Mustern in Harmonie, Rhythmus und Tonfolge hat das statistische Modell essentielle Strukturen gelernt, aus denen die KI nun etwas Neues generieren kann.

Die Möglichkeiten der originalgetreuen Einspielung über den Bösendorfer Imperial 290 CEUS werden anhand einer Aufnahme der Interpretation von Ravels Ma Mère l’Oye durch Maki Namekawa und Dennis Russell Davies demonstriert. Hochsensible Sensoren registrieren detailliert alle tonerzeugenden Bewegungen, von der Geschwindigkeit der Tastenbewegungen bis zur Stellung des Pedals, um die Interpretation exakt wiedergeben zu können. Begleitet werden die verschiedenen Stücke und KI-Improvisationen von Visualisierungen des Künstlers Cori O’Lan. Sowohl für die Klavierinterpretation als auch für die Klavierphasenimprovisationen wurden in Co-Produktion mit dem Ars Electronica Futurelab neue Visualisierungen erstellt.

Die Ausstellung thematisiert nicht nur die historische Verbindung zwischen Musik und Technologie, sondern auch die Spannung, die sich für viele Besucher*innen zwischen der Emotionalität und dem zutiefst sinnlichen Erleben dieses Mediums und der als rein rational und unsinnlich verstandenen Mathematik und Mechanik ergibt. Die gesellschaftliche Akzeptanz von KI-Technologien im Bereich der Musik scheint wesentlich herausfordernder zu sein – und mehr Irritationen hervorzurufen – als die automatisierte Produktion von Texten, Aussagen und Entscheidungen. Die im Ars Electronica Futurelab ausgestellten Programme sollen den Besucher*innen die Möglichkeit geben, selbst zu hören, wie diese Technologien in der Musik eingesetzt werden und welche Ergebnisse sie hervorbringen, sowie ein Grundwissen zu entwickeln, auf dem sie ihre eigene Einschätzung und Meinung aufbauen können.

Credits

Ars Electronica Futurelab: Ali Nikrang, Arno Deutschbauer
Realtime Visuals: Cori O’Lan
PARTNER: Ars Electronica Center