Im neuen Deep Space 8K, der am 7. August 2015 eröffnet, wird es auf jeweils 16 x 9 Meter Projektionsfläche auf Wand und Boden eine weltweit einzigartige 8K-Auflösung in 120 Hz und stereo-3D geben. Um diese atemberaubende Qualität in vollem Ausmaß genießen zu können, reicht es jedoch nicht, lediglich die Hardware auszutauschen – auch die im neuen Deep Space 8K präsentierten Inhalte müssen an diese extrem hochauflösenden Bildwelten angepasst werden. Nachdem es bisher aber nur wenige Videos und Applikationen gibt, die für eine 8K-Auflösung produziert wurden, entwickelt das Ars Electronica Futurelab eigene Inhalte für den neuen Deep Space 8K und bereitet Inhalte so auf, dass sie auch mit einer 8K Auflösung zu einem einzigartigen Erlebnis werden.
Unter dem Programmpunkt „Kulturelles Erbe“ werden im neuen Deep Space 8K Statuen, Bauwerke oder ganze Straßenzüge als 3D-Visualisierungen erlebbar. Mittels 3D-Laserscan wurden diese kulturellen Erbstücke von der Non-Profit-Organisation CyArk digitalisiert. Die dabei entstehende Menge an Punkten nennt man Punktwolken. Zur Visualisierung dieser Punktwolken im neuen Deep Space 8K, entwickelte Roland Aigner aus dem Ars Electronica Futurelab einen verbesserten Point-Cloud-Renderer. Die hohe Qualität der 8K Auflösung und die 3D Darstellung in Kombination mit dem verbesserten Point-Cloud-Renderer erweckt das Gefühl die Statuen, Bauwerke oder Straßenzüge beinahe anfassen zu können.
Wir haben uns mit Roland Aigner getroffen und er hat uns verraten, was die Besucherinnen und Besucher im neuen Deep Space durch den verbesserten Point-Cloud-Renderer erwartet.
Roland, was genau ist eigentlich eine Punktwolke?
Roland Aigner: Wenn man mit einem 3D-Laserscan die Umgebung digitalisiert, speichert dieser eine große Ansammlung von Punkten, genauer gesagt von 3D Koordinaten im Raum, die Punktpositionen beschreiben. Deren Gesamtheit bezeichnet man als Punktwolke. Ein etwas unpräziser Vergleich in 2D wären Pixel, die in Summe ein ganzes Bild ergeben. Wenn man eine Punktwolke in einem virtuellen Raum wie beispielsweise unserem Deep Space visualisiert, ergibt das ein, aus Einzelpunkten zusammengesetztes, dreidimensionales Abbild der gescannten Umgebung. So kann virtuell unser „Kulturelles Erbe“ dargestellt werden.
Credit: Roland Aigner, CyArk
Den Programmpunkt „Kulturelles Erbe“ gab es auch bisher schon im Deep Space. Was wird sich durch den verbesserten Point-Cloud-Renderer im neuen Deep Space 8K ändern?
Roland Aigner: Zunächst einmal ist die Hardware um einiges leistungsfähiger. Dadurch schaffen wir in Kombination mit der neu entwickelten Software viel höhere Bild-Auflösungen. Wir können außerdem viel höhere Punktmengen darstellen. Durch die erhöhte Dichte an Punkten wirken die Objekte teilweise solide, man nimmt die einzelnen Punkte also nicht mehr so stark als solche wahr. Zusätzlich haben wir verschiedene Algorithmen und Techniken implementiert, die es ermöglichen, diese hohe Datenmenge in Echtzeit darstellen zu können. Auch im neuen Deep Space 8K wird es einige der beliebtesten Punktwolkensätze des „alten“ Deep Space im Programm geben. Diese wurden bislang aber nicht in voller Auflösung gezeigt, weil die Hardware bisher nicht leistungsfähig genug war. Auch diese alten Daten können wir jetzt in voller Qualität darstellen.
Zusätzlich haben wir von CDDV (Centre for Digital Documentation and Visualization) neue Datensätze vom Scottish Ten Programm bekommen. Diese Punktwolken haben einen viel höheren Detailgrad, damit ist das Erlebnis im neuen Deep Space 8K dann um einiges besser. Scottish Ten ist ein gefördertes Projekt von der schottischen Regierung, zum Zweck der Dokumentation von UNESCO Weltkulturerbstätten. Bisher wurden fünf Stätten in Schottland und fünf weitere aus anderen Ländern gescannt und wir freuen uns, die ersten drei davon im Deep Space 8K präsentieren zu dürfen. Seit 2009 haben wir eine Kooperation mit CyArk, die uns den Kontakt zu CDDV hergestellt haben. Bei uns im Deep Space 8K werden die Ergebnisse dieser Dokumentation erstmals einem Publikum vorgeführt.
Eine weitere Neuerung ist, dass durch zusätzliche Features, wie virtuellen Kamerafahrten, die Navigation in den Visualisierungen stark vereinfacht wurde. Die Informations-Vermittlung wird für die Infotrainerinnen und –trainer dadurch viel leichter werden. Bisher war die Navigation mit dem iPod sehr mühsam und man musste sich stark auf die Steuerung konzentrieren, jetzt sollte es möglich sein, sich viel stärker auf die Vermittlung des eigentlichen Inhalts zu fokussieren. Wir haben beispielsweise für jeden Datensatz einige Fixpunkte in der Visualisierungen definiert. Drückt man auf einen Knopf am iPod, gelangt man automatisch zu diesem Punkt und man muss nicht manuell dorthin navigieren.
Credit: Magdalena Leitner
Was bedeutet das genau, dass diese Punktwolken einen viel höheren Detailgrad haben?
Roland Aigner: Bei der alten Darstellung war es so, dass zwischen den einzelnen Punkten in der Punktwolke im Schnitt etwa 10 cm Distanz war, teilweise sogar mehr. Das bedeutet, dass die Wolken teils sehr „dünn“ waren und man zwischen den Punkten durchsehen konnte. Im neuen Deep Space 8K werden die Punkte dichter beieinander sein und auch mit einem speziellen Rendering-Verfahren für Punktwolken gezeichnet. Dadurch wirken die Darstellungen viel mehr als solide Objekte. Bei den neuen Datensätzen sind teilweise nur mehr Ein-Zentimeter-Abstände zwischen den einzelnen Punkten. Dementsprechend hoch sind natürlich auch die Datenmengen, die dabei bewältigt werden müssen.
Durch diese großen Datenmengen ergeben sich bestimmt auch große Herausforderungen…
Roland Aigner: Es ist so, dass der Detailgrad mancher Scans, die wir neu dazu bekommen haben, im Original sogar zu hoch für Echtzeitdarstellungen ist. Der eigentliche Zweck, zu dem CDDV Kulturerbestätten digitalisieren, ist ja die detaillierte Dokumentation, nicht deren 3D-Darstellung in Echtzeit, sie werden also nicht für unsere Anforderungen gescannt. Deswegen mussten wir für die Visualisierung die Daten ein wenig herunterrechnen, und zwar gerade so weit, dass Hard- und Software zur Gänze ausgereizt werden und wir so das Maximum rausholen können. Manche der neuen Datensätze haben im Original eine halbe Milliarde Punkte und das ist dann einfach zu viel für unsere Zwecke.
Bei uns ist es so, dass wir den Großteil der Daten immer im Speicher haben, deshalb müssen wir derart großen Datenmengen zuerst reduzieren und zusätzlich verschiedene Algorithmen einsetzen, wie beispielsweise sogenanntes View Frustum Culling, damit nicht der komplette Datensatz, sondern wirklich nur die Punkte verarbeitet werden, die momentan auf den Projektionsflächen zu sehen sind. Außerdem werden mit einer Level-of-Detail Implementierung verschiedene Detailgrade gezeichnet. Sprich der ganze Punktsatz wird in etliche Einzelsegmente unterteilt und je weiter man als Betrachter von einem Segment entfernt ist, umso geringer ist der Detailgrad, mit dem es gerendert wird, so erspart man sich unnötiges Zeichnen von Details, die Aufgrund der Distanz ohnehin nicht sichtbar wären.
Credit: Magdalena Leitner
Was bedeutet eigentlich der Begriff Echtzeit bei Echtzeitvisualisierung?
Roland Aigner: Echtzeit bedeutet im Grunde, dass die Erstellung des dargestellten Bilds während der Präsentation mit einer gewissen Geschwindigkeit erfolgt und nicht zuvor vorgerendert worden ist, wie bei einem Animationsfilm im Kino zum Beispiel. Echtzeitrendering kommt beispielsweise auch in Computerspielen vor. Im Zusammenhang mit der Computergrafik ist „Echtzeit“ ein dehnbarer Begriff, manche sprechen lieber von „Interaktivität“, denn grundsätzlich ist die Anforderung, dass das Zeichnen eines Einzelbildes schnell genug ist, um die Applikation interaktiv gestalten zu können. Man kann in einer Echtzeitvisualisierung also beispielsweise per Gamepad, oder wie in unserem Fall, per iPod in der Applikation navigieren und zur Laufzeit Inhalte verändern. In vielen Anwendungen ist dabei wichtig, dass die Aktualisierungsrate hoch genug ist, um Bewegungen flüssig erscheinen zu lassen, damit also nichts zu ruckeln oder zu flackern beginnt. Die Aktualisierungsrate, die nötig ist, um eine Visualisierung als „Echtzeit“ zu bezeichnen ist aber nicht näher definiert. Ich kenne Unternehmen in der Produktvisualisierungs-Branche, die sich mit 10 Hz zufrieden geben, da dort der Fokus sehr stark auf fotorealistischer Darstellung liegt, im Gaming-Bereich liegt die Rate je nach Genre üblicherweise bei etwa 30 bis 60 Hz. Bei uns ist die angestrebte Framerate jedoch 120Hz, das heißt jedes dargestellt Einzelbild musst von den Grafikkarten in einer 120tel Sekunde gezeichnet werden. Im 3D-Stereo Modus erreicht man dann für jedes Auge 60 Hz und nimmt dadurch beispielsweise bei den Kamerafahrten eine völlig flüssige Bewegung wahr.
Die Eröffnung des neuen Deep Space 8K findet am 7. August 2015 um 18:00 statt. Der Eintritt dazu ist frei. Am daran anschließenden Eröffnungswochenende, am SA 8.8. und SO 9.8.2015, erwartet Sie im Deep Space 8K ein umfangreiches Programm, bei dem Sie auch den Programmpunkt „Kulturelles Erbe“ nicht verpassen sollten.