„slow immediate“ heißen die Residency-GewinnerInnen eines Wettbewerb des von Ars Electronica initiierten European ARTificial Intelligence Lab. Das Duo bestehend aus Xin Liu (CN/US) und Gershon Dublon (US) wurden für ihr Projekt „The wandering mind“ ausgezeichnet, das nun im Rahmen von Residencies am Muntref Centro de Arte y Ciencia sowie am Laboratorio de Neurociencia de la Universidad Torquato Ditella in Buenos Aires und am Ars Electronica Futurelab in Linz realisiert wird. Das Ergebnis wird dann beim Ars Electronica Festival im September 2020 in Linz sowie am Muntref Centro de Arte y Ciencia in Buenos Aires zu erleben sein.
The Wandering Mind ist ein meditatives und multisensorisches Erlebnis. Mit Hilfe eines KI-Systems, das Aufmerksamkeit und Kontext miteinbezieht, soll damit unser Planet Erde tiefgehender ergründet werden. Bei diesem selbstgesteuerten Erlebnis „wandern“ die Sinne und das Bewusstsein des Publikums um die Welt und werden dabei Teil von allem.
“You are the universe experiencing itself“ – das Zitat von Allan Watts veranschaulicht die Harmonie zwischen den Individuen und der Welt um uns herum. Im modernen Anthropozän finden wir es jedoch schwieriger, uns mit der Erde, sowie mit uns selbst und untereinander zu verbinden. Oft wird gerade die Technologie für diese Entfremdung verantwortlich gemacht. Doch unser Planet wird stets umfangreich erfasst und vermessen, was zu einem Datensatz von beispielloser Fülle und wertvollen Möglichkeiten für die Schaffung von Wissen führt. Was wäre, wenn wir dieses Dilemma positiv und kreativ angehen könnten, indem wir uns selbst befähigen, den Puls der Erde zu spüren?
Im The Wandering Mind stellen wir uns vor, dass die planetarische Skalenerkennung und die KI zu unserem peripheren Nervensystem werden – ein externalisierter sensorischer Prozessor für eine Welt von Sensordaten, die außerhalb unserer direkten Wahrnehmungsreichweite liegen. Wir werden Open-Source-Dienste für globales Daten-Streaming wie Radio Aporee als Grundlage dieser Welt nutzen und die Aufmerksamkeit und das Hörverhalten des Publikums mit dem Output einer KI-Engine kombinieren, um durch sie navigieren zu können.
Lesen Sie mehr über das Projekt im Interview auf dem Ars Electronica Blog…