Music

Panel III: Deep Journalism, Information and Misinformation in the age of Artificial Intelligence
Renata Schmidtkunz (DE), Walter Ötsch (AT), Marta Peirano (ES)
Welche Potentiale und Gefahren stecken in der zunehmenden Automatisierung und Verarbeitung von Informationsprozessen? Wie könnten sensible Strategien im Umgang mit unseren Daten in digitalen Raum aussehen?

Panel II: AI, more than a technology
Renata Schmidtkunz (DE), Markus Poschner (DE), Douglas Eck (US), François Pachet (FR)
Es wird erwartet, dass die KI kreative Prozesse um viele neue Möglichkeiten erweitert, ohne Arbeit zu ersetzen, sondern zu unterstützen. Umso größer sind die Erwartungen seitens der Unternehmen an die Entwicklungen im Vertrieb von Musik. Was sind die Konsequenzen und Implikationen? Welche neuen Geschäftsmodelle können wir erwarten? Wie wird sich das auf KünstlerInnen auswirken?

Panel I: Homo Deus
Renata Schmidtkunz (DE), Josef Penninger (AT), Sophie Wennerscheid (DE)
Renata Schmidtkunz veranstaltet vier Panel-Diskussionen in der Sommerrefektur, an denen unter anderem Josef Penninger, Sophie Wennerscheid, Oliviero Toscani, Amanda Cox, Markus Poschner teilnehmen. Das Thema widmet sich der Rolle von Wissenschaft und Forschung, die zunächst eine religiöse Weltsicht bestätigen musste, dann der wirtschaftlichen Rationalität untergeordnet wurde und nun, im anbrechenden Zeitalter der KI, wieder eine Neuorientierung erfährt. Die soziale Akzeptanz in Bezug auf die aktuelle KI-Forschung wird diskutiert. Ein weiterer Schwerpunkt der Panels werden die neuen künstlerischen Möglichkeiten sein, die sich durch KI-Anwendungen eröffnen, die auch zu einer Vielzahl neuer Geschäftsmodelle oder Fragen der Urheberrechtsbestimmungen führen.

Che si può fare?
Monica Vlad (RO) with guest Johanna Falkinger (AT)
Die Thematik dieser Performance basiert auf den Gefühlen von Melancholie, Traurigkeit, Angst vor Verlust, Meditation und Wut und wie Musik in jeglicher Art genutzt werden kann, um diese Emotionen auszudrücken und freizusetzen.

We Revolutionize Music Education: The Neuromusic Education Simulator (NES)
Gerald Wirth (AT), Wiener Sängerknaben/VIve Kumar (IN), Athabasca University (US)
In Zusammenarbeit mit Entwicklungspsychologen und Pädagogen entwickelte Professor Gerald Wirth eine Lehrmethodik - die Wirth-Methode - mit dem Ziel, die Aufmerksamkeit der Studierenden auf hohem Niveau zu halten. Durch die Aktivierung neuronaler Netzwerke durch Bewegung und durch Wiederholungen mit Variationen werden die Inhalte nachhaltig im Langzeitgedächtnis gespeichert. Der Einsatz von NES auf Basis der Wirth-Methode unter Anwendung von VR & AR ermöglicht es LehrerInnen und SchülerInnen zusätzlich zum persönlichen Unterricht zu üben, Erfahrungen zu sammeln und Feedback zu erhalten.

ACIDS: Artificial Creative Intelligence
Philippe Esling (FR)
Das Team von Artificial Creative Intelligence and Data Science (ACIDS) am IRCAM versucht, die musikalische Kreativität zu modellieren, indem es sich auf die Eigenschaften von Audiomischungen konzentriert. Dabei werden Schnittpunkte zwischen Symbol- (Partitur) und Signal- (Audio-) Darstellungen untersucht, um die Vielfalt der Musikinformationen zu verstehen und zu kontrollieren.

Automatic Music Generation with Deep Learning – Fascination, challenges, constraints
Ali Nikrang (AT)
Seit einigen Jahren besteht großes wissenschaftliches Interesse daran, Deep Learning auf kreative Aufgaben wie die Erstellung von Texten, Bildern oder Musik anzuwenden. Technisch gesehen können Deep-Learning-Modelle nur die Statistiken der Daten lernen. So können sie oft Zusammenhänge in den Daten herstellen, die menschliche BeobachterInnen nicht erkennen, und so zur Inspirationsquelle für die menschliche Kreativität werden. Dieser Workshop konzentriert sich auf aktuelle technische Ansätze zur automatischen Musikgenerierung.

Creating interactive audio systems with Bela
Andrew McPherson (UK)
Der Workshop bietet eine Einführung in Bela, eine Open-Source-Hardwareplattform für die Entwicklung interaktiver Audiosysteme. Die TeilnehmerInnen erhalten eine praktische Einführung in den Aufbau von Schaltkreisen und die Programmierung mit Bela, gefolgt von einem Reihe von Beispielprojekten, um die Grundlagen des Baus von Echtzeit-Audiosystemen vorzustellen.

Wind Charm
Liu Zhicheng (CN)
Welche waren die frühesten Musikinstrumente der Menschheit? Wie kam die Menschheit überhaupt dazu, Musik zu genießen? Diese Arbeit versucht, Emotionen in einfache Signale umzuwandeln, die durch Luftströme auf Flaschenhälse erzeugt und direkt von Gehirnströmen gesteuert werden. Wie die Hand eines Pioniermusikers erkunden die UserInnen mit ihren Gehirnwellen die Grenze zwischen Klang und Emotion.

AI-Pop. Walking sound-knowledge-base
Werner Jauk (AT)
Es ist das körperliche Erlebnis, das seine Strukturierung bestimmt: Klang bewegt den Körper dessen Bewegtheit und daraus Bewegung wiederum Klang erzeugt – in Interaktion mit PartizipientInnen entsteht eine kollektive und kollektivierende dynamische Klangstruktur des „communis“-Sein.