machine learning

Computers that Learn to Listen
Institute of Computational Perception, Johannes Kepler University (JKU) Linz (AT)
Acht kurze Demo-Videos über die neuesten Ergebnisse aus der wissenschaftlichen Forschung: Computer lernen Musik zu hören und zu „verstehen“; ein autonomer Trommelroboter erkennt Takt und Rhythmus; musikalische Computerbegleiter blättern Musikseiten für Pianisten und Pianistinnen durch, bieten dem Konzertpublikum synchronisierte Partituren und begleiten Solisten wie Solistinnen.

Voices from AI in Experimental Improvisation
Tomomi Adachi (JP), Andreas Dzialocha (DE), Marcello Lussana (IT)
Dank maschinellem Lernen können Computer Muster in unterschiedlichsten Tondokumenten erkennen. Aber können sie auch lernen, musikalisch zu improvisieren? Die Software „Tomomibot“ versucht es und interagiert mit Hilfe von Deep-Learning-Techniken in Echtzeit mit dem Klangkünstler Tomomi Adachi. Die Künstliche Intelligenz (KI) „lernt“ anhand der Stimmaufnahmen des Improvisationskünstlers dessen individuellen Stil und konfrontiert ihn unmittelbar mit dem daraus generierten Material. Die gemeinsame Performance der beiden zeigt, wie interaktive Technologie und KI einen Gesang(sstil) beeinflussen können. In diesem Dialog wird aber auch deutlich, dass der Künstler stets kreativer und unberechenbarer ist als sein maschinelles Gegenüber.

Reeps One x Dadabots ft. Second Self AI
Reeps One (UK)
Second Self ist eine Kunst- und Wissenschaftskooperation zwischen Reeps One, Dada Bots und dem E.A.T. Programm in den Nokia Bell Labs. Die Zusammenarbeit ist ein Live-Performance-Stück, das darauf abzielt, maschinelles Lernen, die menschliche Stimme und generatives Audio als praktisches künstlerisches Werkzeug zu integrieren und das Bewusstsein für maschinelles Lernen jenseits der akademischen, technologischen und technischen Demografie über das Medium Film und Performance zu schärfen.