AIxMusic Workshops (Sonntag)

In den letzten Jahren ist das wissenschaftliche Interesse, Deep Learning auf kreative Aufgaben wie die Generierung von Texten, Bildern oder Musik anzuwenden, erheblich gestiegen. Die Workshops bieten jedem die Möglichkeit, KI-Systeme für das Musizieren und Abspielen von Musik selbst auszuprobieren.

Voices from AI in Experimental Improvisation
Tomomi Adachi (JP), Andreas Dzialocha (DE), Marcello Lussana (IT)

Voices from KI in Experimental Improvisation ist ein Projekt von Tomomi Adachi, Andreas Dzialocha und Marcello Lussana. Sie bauten eine KI namens „tomomibot“, die Adachis Stimme und Improvisationstechniken mit Hilfe von neuronalen Netzwerkalgorithmen erlernte. Die Performance wirft Fragen nach der Logik und Politik von Computern in Bezug auf die menschliche Kultur auf.

Automatic Music Generation with Deep Learning
Ali Nikrang (AT)

In den letzten Jahren war das akademisches Interesse groß, Deep Learning für kreative Aufgaben wie die Erstellung von Texten, Bildern oder Musik zu verwenden. Dieser Workshop konzentriert sich auf aktuelle Ansätze zur Musikgenerierung. Wir gehen den Fragen nach: Was ist das Besondere an Musikdaten? Was können KünstlerInnen, WissenschaftlerInnen oder MusikliebhaberInnen von diesen Modellen erwarten? Inwieweit akzeptieren die ZuhörerInnen Musik einer KI?

ULTRACHUNK (leider abgesagt)
Jennifer Walshe (IE), Memo Akten (TR)

Welche Auswirkungen hat es, wenn man seine Stimme zum Improvisieren mit einem neuronalen Netzwerk einsetzt? Die Komponistin Jennifer Walshe und der Künstler Memo Akten präsentieren ULTRACHUNK (2018), ein neuronales Netzwerk, das auf einer Sammlung von Walshe's Solo-Vokalimprovisationen trainiert wurde. In dieser Performance streitet Walshe mit dem künstlich intelligenten Duettpartner – einem, der eine verzerrte Version ihrer eigenen improvisatorischen Sprache und individuellen Stimme widerspiegelt.

Looped Improvisation
Ali Nikrang (AT), Michael Lahner (AT)

Wir haben mehrere kurze Sequenzen generiert, die als Input in einer Schleife abgespielt werden. Infolgedessen wird die Anwendung weiterhin neue Outputs erzeugen, obwohl immer die gleichen Inputs vorhanden sind.

Nokia Bell Labs
Domhnaill Hernon (US)

Ein interaktives Erlebnis, das Musik und Bild miteinander verbindet. Die Bewegungen der BenutzerInnen werden durch die Bell Labs Motion Engine in ein dynamisch gestaltetes audio-visuelles Erlebnis umgewandelt.

A-MINT
Alex Braga (IT)

Es gibt nichts Einfacheres und doch Komplexeres als den Menschen. Die Herausforderung für Alex Braga besteht darin, mit Hilfe eines revolutionären neuen Instruments namens A-MINT einen neuen und organischen Klang zu erzeugen. Es ist eine adaptive künstliche Intelligenz, die in Echtzeit funktioniert und es allen MusikerInnen ermöglicht, unendliche Kreativität zu erforschen.

NOISA
Koray Tahiroglu (FI/TR)

NOISA, das Netzwerk intelligenter Sonic Agents, ist ein interaktives Musiksystem, das die Aktionen der PerformerInnen beobachtet und autonome, unaufdringliche Reaktionen darauf gibt. In diesem Projekt für ko-kreative Musikperformances werden intelligente Sonic Agents dafür entwickelt, die Interpreten und Interpretinnen zu motivieren sowie die Kommunikation mit dem NOISA-System zu fördern und aufrechtzuerhalten.

Fantasie#1
Quadrature (DE) in collaboration with Christian Losert (DE)

Über ein Radioteleskop vor dem Veranstaltungsort wird das Rauschen des Himmels von einer selbstspielenden Orgel wahrgenommen. Nach und nach übernehmen neuronale Netze die Kontrolle über die Orgel und suchen nach bekannten Harmonien in den nichtweltlichen Geräuschen. Ideen von Melodien entwickeln sich, wenn die künstliche Intelligenz beginnt, über vertraute Melodien in diesen fremden Klängen zu fantasieren.

Fossil Futures
Nora Al-Badri (DE), Jan Nikolai Nelles (DE)

„Oskar“ nennen die BerlinerInnen liebevoll „ihren“ Dino, das weltweit größte Saurierskelett, das im Berliner Naturkundemuseum beheimatet ist. Woher dieses ursprünglich stammt und wie es hier gelandet ist, versuchten Nora Al-Badri und Jan Nikolai Nelles herauszufinden. Von offizieller Seite bekamen sie wenig Auskunft, doch mit Hilfe geleakter Daten, Künstlicher Intelligenz und 3D-Scans ließ sich die Geschichte des Fossils rekonstruieren. Seine Spuren führten bis in den Süden Tansanias. Während der deutschen Kolonialherrschaft wurden dort tonnenweise versteinerte Knochen gefunden und nach Deutschland gebracht. Mittels modernster Technik – unter anderem auch einem Virtual-Reality-Museum – stellt Fossil Future nun die Frage nach geraubter Identität, kulturellem Erbe und öffentlichem Besitz.