Riesige Datenmengen. 9223 Kilometer Entfernung. Keine Übertragungsverluste. Und das noch dazu über eine öffentliche Verbindung – es ist wirklich keine leichte Aufgabe, die sich das Ars Electronica Futurelab und NHK ausgesucht haben. Gemacht wird’s trotzdem: Im Rahmen des EU-Forschungsprojektes Immersify findet am 28. August 2019 um 09:00 Uhr der erste 8K Livestream über eine öffentliche Verbindung statt. Während in Tokio die traditionelle Performance Sanbasō aufgeführt wird, können in Linz BesucherInnen also live dabei zusehen – mitten in der 9x16m Leinwand des Deep Space 8K.
Wir haben uns mit Roland Haring und Ali Nikrang vom Ars Electronica Futurelab unterhalten und mehr über den 8K Livestream, Immersify und die Herausforderungen eines solchen Projektes erfahren.
(Und für alle, die erst während des Ars Electronica Festivals 2019 in der Stadt sind: Am Festivalfreitag, den 6. September 2019, werden um 10:00 Uhr im Deep Space 8K noch einmal ein Rückblick und zwei weitere 8K Livestreams gezeigt.)
Roland, du bereitest gerade etwas sehr Besonderes vor. Was passiert denn am 28. August 2019 im Deep Space 8K in Linz?
Roland Haring: Wir sind sehr stolz, dieses Jahr im Vorfeld der Ars Electronica eine Weltpremiere feiern zu dürfen: Am 28. August 2019 findet im Deep Space 8K der erste interkontinentale 8K-Livestream statt, der über das öffentliche Internet ausgetragen wird. Es ist eine Premiere in vielfacher Hinsicht – wir konnten so hochqualitative Livestreams bei uns vorher noch nie zeigen. Es ist eine große Herausforderung, solches Bildmaterial aufzunehmen und zu streamen, es über ein öffentliches Netzwerk zu übertragen und dann die empfangenen Daten auch anzeigen zu können.
Möglich wurde das jetzt im Rahmen des EU-Projekts Immersify, wo die richtigen Partner zusammenkamen und überlegen konnten, was man machen könnte. Wir konnten über unsere europäischen Partner hinaus auch NHK aus Japan gewinnen, die weltweit eine führende Rolle im Bereich Rundfunk einnehmen. Besonders in Hinblick auf 8K sind sie Vorreiter – wir sprechen bei diesem Datenvolumen von einer wirklich großen Komplexität, vor allem, wenn es um Livetechnik geht. In Japan existiert derzeit sogar schon ein eingeschränkter 8K Sendebetrieb!
Was wird bei dem Livestream am 28. August denn gezeigt?
Roland Haring: An dem Datum findet im Tokyo National Theater eine Aufführung der japanischen Tanzperformance Sanbasō statt. Es ist eine sehr traditionelle Aufführung und rührt tief an die Wurzeln von Japans Kultur – und genau das werden wir live nach Linz streamen.
Vor welchen Herausforderungen steht ihr bei diesem großen Streaming-Projekt?
Roland Haring: Einerseits muss man das Geschehen natürlich aufnehmen und dann zu einem Datenstrom encodieren. Die nächste Herausforderung ist es dann, diese Daten um die halbe Welt zu schicken, ohne, dass es dabei zu Verlusten oder Bildaussetzern kommt. Üblicherweise würde ein solches Vorhaben über dezidierte Netzwerklinks realisiert werden, wo also Fernsehanstalten bei Internet-Providern Bandbreiten mieten und diese für einen bestimmten Zeitraum exklusiv benutzen. Wir machen das aber anders: Wir reservieren keine eigene Bandbreite, sondern schicken unsere Daten über die öffentliche Infrastruktur.
Nach dem Motto: Warum einfach, wenn es auch kompliziert geht…
Roland Haring: Es ist ein Proof of Concept. Immersify spielt eine Vorreiterrolle, es soll verschiedenste Szenarien beispielhaft realisieren, um zu zeigen, was mit der bestehenden technischen Infrastruktur mittlerweile an hochqualitativen, hochauflösenden und immersiven Mediensituationen realisierbar ist. Das Thema Streaming spielt hierbei natürlich auch eine Rolle. Dass wir dazu das öffentliche Internet verwenden, macht die Technologie nicht nur für Medienproduzierende oder Interessierte greifbar, sondern erhöht auch generell die Verfügbarkeit.
Ali Nikrang: Was auch interessant ist – beim Testen hatten wir einen Empfänger in Linz, einen in Berlin und einen in Polen. Das Signal, das aus Japan kam, war also an drei verschiedenen Orten in Europa abrufbar. Und noch eine Sache, die oft vergessen wird: Das ist umso beeindruckender, wenn man bedenkt, dass 8K ja nicht dasselbe wie zweimal 4K ist. In Wirklichkeit ist es nämlich viermal so viel wie 4K! Das ist das Volumen, von dem wir hier reden. Das ist sehr herausfordernd, wenn man über so viele Kilometer hinweg ein Signal live übermittelt. Umgekehrt, wenn man jetzt eine Datei aus dem Internet lädt, ist es nicht kritisch, ob der Download manchmal schneller oder langsamer läuft. Wenn wir etwas live übertragen, muss garantiert sein, dass alles regelmäßig ankommt. Das öffentliche Internet dazu zu benutzen, ist in dieser Hinsicht natürlich riskant.
Man braucht einen eigenen Empfänger, die Infrastruktur ist noch nicht ganz ausgebaut – ist denn 8K trotzdem die Zukunft des Fernsehens?
Roland Haring: Ich glaube schon. Normalerweise passieren solche technischen Entwicklungen nach demselben Schema, zuerst werden Video-Codecs spezifiziert, dann gibt es die ersten Tests und Software-Implementierungen, schließlich kommen Optimierungen und hochperformative Implementierungen. Das ist für Endanwender und –Anwenderinnen noch nicht sehr interessant, dafür braucht man nämlich noch sehr leistungsfähige Hardware. Spannend wird es im nächsten Schritt, wenn nämlich Codecs als Chips in Hardware implementiert werden. Solche Chips befinden sich in jedem Mobiltelefon, in Computern und auf Graphikkarten – sie sind sehr weit verbreitet und man benötigt keine speziellen Geräte dafür. Was wir sehen, ist, dass momentan genau an solchen Entwicklungen gearbeitet wird. Vielleicht dauert es noch ein bisschen, aber 8K wird genauso normal werden wie es jetzt HD ist.
Im Deep Space Inhalte mit 8K abzuspielen, ist allerdings schon heute kein Problem mehr.
Ali Nikrang: Stimmt. Wir sind im Deep Space sogar schon dabei, mit 16K zu experimentieren! Was beim Livestream einfach schwierig ist, ist die Übertragung. Wie schafft man es, trotz öffentlichem Internet, über das man keine Kontrolle hat, die Daten rechtzeitig und gleichmäßig zu übermitteln und zu empfangen?
Roland Haring: Damit es etwas leichter wird, haben wir eine Kooperation mit LIWEST. Sie ermöglichen uns die letzte Meile in das Ars Electronica Center für dieses Projekt. Es ist nämlich so, dass Internet-Serviceprovider wie eben LIWEST untereinander über große Glasfaserknoten zusammengeschlossen sind. Jeder Endkunde, jede Endkundin muss bei dem Internetprovider der Wahl eine Leitung mieten, damit man sich selbst auch zum Internet verbinden kann. Das müssen alle zuhause bei sich machen, das muss aber auch die Ars Electronica als Firma erledigen. Wenn wir den 8K-Livestream über unseren üblichen Internet-Anschluss laufen hätten lassen, wäre das problematisch gewesen – wir sind auch im Alltag schon sehr ausgelastet, da wir das Internet oft für unsere Arbeit brauchen. Aus diesem Grund hat uns LIWEST eine zweite Internetleitung zur Verfüngung gestellt, die zwar ein ganz normaler öffentlicher Anschluss ist, aber eben getrennt von der ersten Ars-Electronica-Leitung läuft.
Nach dem großen Event wird es auch am Ars Electronica Festival eine kleine Kostprobe eines solchen Livestreams geben. Könnt ihr mir mehr darüber erzählen?
Roland Haring: Am Festivalfreitag, das ist der 6. September 2019, zeigen wir eine Zusammenfassung unseres Livestreams der Tanzperformance Sanbasō, außerdem je einen Livestream nach Japan und Polen.
Ali Nikrang: Der Livestream nach Japan benutzt dieselbe Technologie, die wir auch schon am 28. August verwenden werden. Mit unserem polnischen Partner PSNC verwenden wir allerdings eine andere Technologie. Sie arbeiten nicht mit speziellen Codecs, sondern verwenden nur frei zugängliche Software. Es ist also etwas, was wirklich alle benützen könnten, ohne spezielle Lizenzen zum Decodieren oder Encodieren.
Singing Sand 2.0 / Tadej Drolc. Credit: Robert Bauernhansl
Der Livestream ist nicht die einzige Premiere, die im Rahmen von Immersify beim diesjährigen Festival gezeigt wird. Was erwartet uns noch?
Roland Haring: Ein großes Highlight ist sicherlich die Präsentation von „Singing Sand 2.0“ von Tadej Droljc. Der slowenische Medienkünstler hat einen 8K stereoskopischen Animationsfilm erstellt, der abstrakte Visualisierungen von Musik und Ton auf Boden und Wand im Deep Space zeigt. Eine sehr eindrucksvolle Erfahrung. Theresa Schubert, die Artist in Residence bei unserem Partner PSNC war, zeigt „Immersive Minimalism“, ein erstes Ergebnis aus ihrem Aufenthalt in Polen. Wir zeigen außerdem eine große Kooperation mit den BBC Studios und dem Scan Lab aus Großbritannien über die Pyramiden von Gizeh. Sie haben das bekannte Weltkulturerbe dreidimensional gescannt und auf dieser Grundlage 360°-Videos erstellt, die wir im Deep Space 8K mit einer interaktiven Applikation verknüpfen. Man kann frei steuern, wie man sich durch die Narration und die Pyramide bewegt. Weil es eine 360°-Grad-Arbeit ist, arbeiten wir hier mit einer extremen Auflösung – man sieht immer nur einen Ausschnitt des Videos. Damit dieser hochauflösend ist, muss das gesamte Video mehr als 8K haben – wir sind hier wirklich am Limit unseres Hardware-Systems. Uns ist nicht bekannt, dass ein solches Projekt in einer solchen Form schon irgendwo realisiert wurde, es ist ein wirkliches Highlight.
Roland Haring studierte Medientechnik und Design an der Fachhochschule Hagenberg. Seit 2003 ist er Mitglied des Ars Electronica Futurelabs und eine der treibenden Kräfte hinter dessen R&D Aktivitäten. Seine Aktivitäten beinhalten dabei die Forschung und Entwicklung in mehreren großen R&D Projekten, zusammen mit wissenschaftlichen, künstlerischen und wirtschaftlichen Partnern. Aktuell arbeitet Roland Haring als Technischer Direktor des Ars Electronica Futurelabs und ist dabei mit für dessen Gesamtleitung, inhaltliche Konzeptionierungen, sowie die technische Entwicklung verantwortlich. Mit seiner langjährigen Erfahrung in der (software-)technischen Leitung forschungsintensiver Großprojekte ist er ein Experte für das Design, die Architektur und die Entwicklung interaktiver Anwendungen.
Ali Nikrang ist Senior Researcher & Artist im Ars Electronica Futurelab, wo er Mitglied der Forschungsgruppe Virtual Environments ist. Er studierte Computer Science an der Johannes Kepler Universität Linz und klassische Musik an der Universität Mozarteum Salzburg. Bevor er 2011 zu Ars Electronica wechselte, arbeitete er als Researcher beim Austrian Research Institut for Artificial Intelligence, wo er Erfahrungen im Bereich Serious Games und simulierte Welten sammelte.
Der 8K Livestream der Tanzperformance Sanbasō findet am 28. August 2019 um 09:00 Uhr im Deep Space 8K im Ars Electronica Center statt. Beim Ars Electronica Festival gibt es eine Woche später am 6. September 2019 um 10:00 Uhr im Deep Space 8K noch einmal die Gelegenheit, einen 8K Livestream zu erleben. Die Programmpunkte, die außerdem im Rahmen von Immersify am Ars Electronica Festival gezeigt werden, sind im Festivalprogramm gelistet (hier geht’s zum Download).
Um mehr über Ars Electronica zu erfahren, folge uns auf Facebook, Twitter, Instagram und Co., abonniere unseren Newsletter und informiere Dich auf https://ars.electronica.art/.