Journalism

AIxMusic Panels
Renata Schmidtkunz (DE)
Renata Schmidtkunz veranstaltet vier Panel-Diskussionen in der Sommerrefektur, an denen unter anderem Josef Penninger, Sophie Wennerscheid, Amanda Cox, Markus Poschner teilnehmen.

Panel III: Deep Journalism, Information and Misinformation in the age of Artificial Intelligence
Renata Schmidtkunz (DE), Walter Ötsch (AT), Marta Peirano (ES)
Welche Potentiale und Gefahren stecken in der zunehmenden Automatisierung und Verarbeitung von Informationsprozessen? Wie könnten sensible Strategien im Umgang mit unseren Daten in digitalen Raum aussehen?

Panel II: AI, more than a technology
Renata Schmidtkunz (DE), Markus Poschner (DE), Douglas Eck (US), François Pachet (FR)
Es wird erwartet, dass die KI kreative Prozesse um viele neue Möglichkeiten erweitert, ohne Arbeit zu ersetzen, sondern zu unterstützen. Umso größer sind die Erwartungen seitens der Unternehmen an die Entwicklungen im Vertrieb von Musik. Was sind die Konsequenzen und Implikationen? Welche neuen Geschäftsmodelle können wir erwarten? Wie wird sich das auf KünstlerInnen auswirken?

We Revolutionize Music Education: The Neuromusic Education Simulator (NES)
Gerald Wirth (AT), Wiener Sängerknaben/VIve Kumar (IN), Athabasca University (US)
In Zusammenarbeit mit Entwicklungspsychologen und Pädagogen entwickelte Professor Gerald Wirth eine Lehrmethodik - die Wirth-Methode - mit dem Ziel, die Aufmerksamkeit der Studierenden auf hohem Niveau zu halten. Durch die Aktivierung neuronaler Netzwerke durch Bewegung und durch Wiederholungen mit Variationen werden die Inhalte nachhaltig im Langzeitgedächtnis gespeichert. Der Einsatz von NES auf Basis der Wirth-Methode unter Anwendung von VR & AR ermöglicht es LehrerInnen und SchülerInnen zusätzlich zum persönlichen Unterricht zu üben, Erfahrungen zu sammeln und Feedback zu erhalten.

ACIDS: Artificial Creative Intelligence
Philippe Esling (FR)
Das Team von Artificial Creative Intelligence and Data Science (ACIDS) am IRCAM versucht, die musikalische Kreativität zu modellieren, indem es sich auf die Eigenschaften von Audiomischungen konzentriert. Dabei werden Schnittpunkte zwischen Symbol- (Partitur) und Signal- (Audio-) Darstellungen untersucht, um die Vielfalt der Musikinformationen zu verstehen und zu kontrollieren.

Automatic Music Generation with Deep Learning – Fascination, challenges, constraints
Ali Nikrang (AT)
Seit einigen Jahren besteht großes wissenschaftliches Interesse daran, Deep Learning auf kreative Aufgaben wie die Erstellung von Texten, Bildern oder Musik anzuwenden. Technisch gesehen können Deep-Learning-Modelle nur die Statistiken der Daten lernen. So können sie oft Zusammenhänge in den Daten herstellen, die menschliche BeobachterInnen nicht erkennen, und so zur Inspirationsquelle für die menschliche Kreativität werden. Dieser Workshop konzentriert sich auf aktuelle technische Ansätze zur automatischen Musikgenerierung.

Creating interactive audio systems with Bela
Andrew McPherson (UK)
Der Workshop bietet eine Einführung in Bela, eine Open-Source-Hardwareplattform für die Entwicklung interaktiver Audiosysteme. Die TeilnehmerInnen erhalten eine praktische Einführung in den Aufbau von Schaltkreisen und die Programmierung mit Bela, gefolgt von einem Reihe von Beispielprojekten, um die Grundlagen des Baus von Echtzeit-Audiosystemen vorzustellen.

Recommenders and Intelligent Tools in Music Creation: Why, Why Not, and How?
Christine Bauer (AT), Peter Knees (AT), Richard Vogl (AT), Hansi Raber (AT)
In diesem Workshop wird die Rolle von Künstlichen Intelligenz, von Komposition gestützt durch Machine Learning und von Empfehlungssystemen im Prozess der Musikproduktion. Wir besprechen die Rezeption und das vorherrschende Image unter professionellen MusikproduzentInnen und -schaffenden, einschließlich der potenziellen Bedrohungen für die künstlerische Originalität. Wir kontrastieren diese Sichtweise und besprechen die Potenziale der KI-Technologie für eine Demokratisierung des Musikmachens durch den erleichterten Zugang zum Musikschaffen.

Digital Musical Interactions
Koray Tahiroğlu (Fl/TR)
Heute prägen digitale Technologien und fortschrittliche Rechenfunktionen, wie maschinelles Lernen und künstliche Intelligenz (KI), unsere Beziehung zur Musik und eröffnen neue Möglichkeiten, neue Musikinstrumente und Schnittstellen zu nutzen. In diesem Workshop stellen wir uns die Frage, welches Verhältnis wir heute zu Musik und Musikinstrumenten haben.

Computer Music Design and Research – IRCAM Workshop
Jérôme Nika (FR), Daniele Ghisi (IT)
Der Musiker und Forscher Jérôme Nika (FR) präsentiert die generative Agents / Software-Instrumente DYCI2, die er in Zusammenarbeit mit IRCAM und in Interaktion mit erfahrenen Improvisatoren entwickelt. Die Agents bieten ein Kontinuum von Strategien, von der reinen Autonomie bis zur Metakomposition dank einer abstrakten "Szenario"-Struktur.