Bei der von Ars Electronica organisierten Vortragsreihe „Future in a Nutshell“, die nun exklusiv für MitarbeiterInnen des Unternehmens Greiner Technology & Innovation angeboten wird, setzen sich in den kommenden Monaten verschiedene ExpertInnen mit den wichtigsten Entwicklungen und technologischen Trends der nächsten zehn Jahre auseinander. Nachdem der Computerwissenschaftler Sepp Hochreiter zum Thema „Künstliche Intelligenz“ einen Vortrag hielt, setzt nun Alois Ferscha diese Serie fort. Er ist Professor an der Johannes Kepler Universität Linz, wo er das Institut für Pervasive Computing und das Austrian Research Studio for Pervasive Computing Applications leitet. Wir haben uns vorab mit ihm über das „Internet der Dinge“ unterhalten.
Warum ist das „Internet der Dinge“ eigentlich so spannend geworden?
Alois Ferscha: Das „Internet der Dinge“ hat sowohl an Bedeutung wie an Akzeptanz gewonnen. Im Jahr 1999 hat Kevin Ashton das „Internet der Dinge“ erstmals wissenschaftlich erwähnt, wo zunächst thematisiert wurde, dass Dinge untereinander vernetzt sein können. Genau in dieser Zeit habe ich auch das erste „Internet der Dinge“ Referenzbeispiel implementiert gehabt. Das war ein „Internet-Koffer“, der auf einer internen Website sein Inventar gelistet hat. Das Hineinlegen von Kleidungsstücken, Büchern oder anderen Gegenständen in den Koffer, hat diese Inventarliste erweitert, das Herausnehmen hat sie gekürzt. Und genauso hat alles das, was man hineingelegt hat, für sich eine eigene Website gehabt – das Hemd hatte eine eigene Website, wo protokolliert wurde, wo es je gewaschen wurde, wo es gekauft wurde, wo Herstellerangaben und Waschanleitung im Internet hinterlegt waren. Ãœber ein handelsübliches Internet-fähiges Mobiltelefon mit der damaligen W@P-Technologie konnte man diese Informationen damals abrufen. Das war natürlich nicht die Konzeption einer neuen Generation von Technologie, das war nur eine Provokation, um aufmerksam zu machen, dass auch die Dinge untereinander – nicht nur die Menschen, die damals Websites angesehen haben – von dieser Präsenz im Internet Nutzen beziehen können. Das ist dann mit den Nahbereichs-Drahtlostechnologien weiter populär geworden.
Im Jahr 2000 haben wir an der Johannes Kepler Universität das erste 802.11-Funksystem von CISCO zur Verfügung gestellt bekommen, um auszutesten, wie man drahtlos quer über den Campus kommunizieren kann. Wir haben damals in dem von mir geleiteten Projekt „Wireless Campus“ das größte WIFI-Netz Österreichs mit 240 Access Points aufgebaut, ein gigantisches „WLAN“ und pionierhaft. Noch interessanter waren diese kleinen Bluetooth- und ZigBee-basierten Funksysteme, die im Nahbereich den Datenaustausch ermöglicht haben. Das erwähne ich deshalb, weil das eine Generation der „Internet der Dinge“ war, die ich gerne mit dem „Internet der Vernetzten Dinge“ beschreibe.
Was konnte dieses „Internet der vernetzten Dinge“ zu dieser Zeit?
Alois Ferscha: Das war eine Generation des „Internet der Dinge“, in dem A eine Nachricht zu B schicken und B diese empfangen konnte – es ging einfach nur um Vernetzung und Datenaustausch. Das hat sich dann mit den Arbeiten im Bereich der Umgebungswahrnehmung durch die Dinge weiter vertieft. Wir haben in den Dingen schließlich Fähigkeiten implementieren können, wo sie selbst wahrnehmen konnten, wo sie sich gerade auf dem Planeten befinden, ob es dort kalt, warm, heiß, hell, dunkel, beschleunigt, starr, still ist. Plötzlich haben die Dinge nicht nur Nachrichten empfangen, sondern auch ihre Umgebung wahrnehmen können. Das hat eine zweite Generation an Technologie induziert, das ich heute als „Internet of Aware Things“ bezeichne.
Das „Internet of Aware Things“ geht also einen Schritt weiter…
Alois Ferscha: Damit konnten die Dinge auch die eintreffenden Nachrichten in einen Bedeutungszusammenhang stellen – nämlich, was die Situation insgesamt ist. Diese Wahrnehmungsfähigkeit hat sich ausgeweitet – nicht nur die Situation konnte wahrgenommen werden, sondern auch die BenutzerInnen und ihre Aktivitäten – ob sie gehen, stehen, oder sitzen, die Modes of Locomotion, die Interaktionsmodalitäten und letztendlich sogar etwas wie einen Vitalzustand, die emotionale Befindlichkeit und die Aufmerksamkeit. Es sind nun Dinge, die für sich selbst ermitteln können, ob die Benutzerin oder der Benutzer gerade auf sie aufmerksam ist oder nicht. Wenn nicht, dann können sie den Menschen gegebenenfalls aufrütteln bzw. unter möglichst hoher Schonung dessen Konzentration wenig unterbrechend und aufmerksamkeitsschonend Information vermitteln. Die Aufmerksamkeit ist mittlerweile zur größten Ressource im Gestaltungsraum für moderne IT überhaupt geworden, sie ist eine der höchsten Stufen des Wahrnehmungsvermögens von einem Ding. Das kann man mit unterschiedlichsten Sensoren implementieren, mit Beschleunigungssensoren, mit Biosignalsensoren bis hin zu mobilen Eye-Tracking-Technologien.
Auf welchem Status befindet sich das „Internet der Dinge“ heute?
Alois Ferscha: Mittlerweile, und da stehen wir jetzt, denke ich, ist wieder eine neue Generation der „Internet der Dinge“ losgebrochen. Aus der Verschränkung von Künstliche-Intelligenz-Technologien, Machine-Learning-Techniken, mathematischen Methoden der Mustererkennung und der Technik, die man bei DeepMind in dem Programm AlphaGo vorfindet, sind es nun diese AI Techniken, die sich jetzt in die Dinge einbetten.
Wir haben bereits selbst solche Dinge gebaut, die Muster erkennen können – Bewegungsmuster von Füßen, die diese mit kleinsten Sensoren in der Schuhsohle messen und auswerten konnten, und entsprechend dann auch das Gelernte an die Umgebung übermitteln und etwas veranlassen konnten, etwas ein- oder auszuschalten, etwas zu dimmen, etwas zu regeln, zu schließen, zu öffnen, ohne dass man eigentlich daran denken muss. Einfach deshalb, weil die Dinge, in diesem Fall die Schuhe, die Informationen an die Haushaltselektronik kommuniziert. Wir haben viele Projekte dazu gemacht, von Wearable Computing, vibrierenden Gürteln, von Armbändern und Smart Watches bis hin zu Smartphone-Anwendungen, wo wir das Smartphone als Sensorknoten in einem hochkomplexen Sensornetzwerk verstehen: Beschleunigung, Lichtdichte, Schallpegel, Accelometer, Magnetometer, Gyroskop, Orientierung hinsichtlich der Koordinaten. Diese Techniken verlangen normalerweise viel Speicher, weil sie trainiert werden müssen. Der Fähigkeitsbestand eines solchen Dinges ist eigentlich die Summe der Lerneindrücke oder der Trainingseindrücke, die es je erfahren hat.
Viel Speicher, eine gigantische Ansammlung an Daten und starke Rechenleistung haben das Internet der Dinge verändert…
Alois Ferscha: Klarerweise, je mehr Daten zum Trainieren zur Verfügung stehen, umso besser kann später ein Muster erkannt werden. Das ist datenintensiv, aber auch sehr rechenintensiv. Wenn man an diese DeepLearning-Techniken denkt, wo es rückbezügliche Feedback-Schleifen der unterschiedlichen Layer von einem neuronalen Netzwerk gibt, und die für das Lernen notwendige Gewichtsadjustierung von einem Layer zu dem anderen tief rekursiv angepasst werden muss, braucht das auch sehr viel Rechenleistung. DeepBlue, das Schachprogramm das den amtierenden Schachweltmeister Garry Kasparov 1997 besiegen konnte, lief noch auf einem Supercomputer. Wir befinden uns heute auf einem Weg, wo genau diese Technologie radikal verkleinert wird, reduziert wird in Größe, in Speichergröße, und in Compute-Power. Letztendlich wird diese Technologie wiederum integrierbar in kleinste Dinge, bis hin in die Kleidung, in Gebrauchsgegenständen, Möbeln oder Fahrzeuge, die autonom fahren. Im Grunde ist das das neue Prinzip der Internet der Dinge und ich spreche da gerne auch von einem „Internet of Thinking Things“.
Was verstehen Sie unter dem Begriff der „Internet of Thinking Things“ genau?
Alois Ferscha: Wir haben es nicht nur mit kommunizierenden oder wahrnehmenden Dingen zu tun, sondern zunehmend –aufgrund der eingesetzten AI Technologien- mit „denkenden“ Dingen. Wenn Lernen eine Kategorie des Denkens ist, dann ist mit „Machine Learning“ schon viel auf diesem Weg zu lernfähigen Systemen geleistet, aber das ist nicht die einzige Dimension. Wir haben daneben auch die perzeptive Dimension, etwas erkennen zu können. Wir haben auch die schlussfolgernde Dimension aus verschiedenen Fakten – für das Erkennen einer Situation, was Pläne machen betrifft, was die Einschätzung und Vorhersage von zukünftigen Zuständen betrifft, bis hin zu autonom und selbstständig gefassten Entscheidungen (Autonomous Decision Making) und letztendlich diese Entscheidungen in Aktivitäten umzusetzen (Autonomous Acting). Und all diese Funktionalität zusammengebracht in kleinem Raum in die Dinge integriert, das wird in Zukunft das Internet der denkenden Dinge ausmachen.
Wenn die Dinge für uns Menschen das Denken übernehmen, wo sehen Sie die Rolle des Menschen in dieser Zukunft?
Alois Ferscha: Der Mensch ist und bleibt der Mensch. Und die Technik ist und bleibt der Gehilfe des Menschen, wo die menschliche Fähigkeit nicht ausreicht oder man gerne die Unterstützung von technischen Systemen hat, weil die Wahrnehmungszeiten, die Schaltzeiten, die Einstellkontrollzeiten viel zu kurz sind als dass sie der Mensch selbst durchführen könnte und wir hier gut beraten sind, dies an Maschinen zu übertragen. Was das Erkennen von Hindernissen auf der Straße betrifft so wissen wir, dass beim Menschen die visuelle Erkennungszeiten im Bereich von bis zu etwa 140 Millisekunden liegen. 140 Millisekunden ist eine Ewigkeit, wenn wir von einem nano-getakteten Prozessor ausgehen. In diesen 140 Millisekunden führt dieser 3-Gigahertz-Prozessor 420 Millionen Instruktionen aus, während wir uns zunächst orientieren müssen, was wir überhaupt sehen. Und da wäre es natürlich schade auf diese Möglichkeit der Technik zu verzichten.
Da ist die Technologie eine Prothese des Menschen – zur Unterstützung der Wahrnehmung, der motorischen Fähigkeiten, der Bewegungsfähigkeiten. Kein Mensch kann seinen Körper in unter neun Sekunden über die 100 Meter bringen, Maschinen können das mit Leichtigkeit. Kein Mensch kann mehr als das 7-fache seines Körpergewichtes in die Höhe stemmen, Maschinen können das mit Leichtigkeit. Da kann man viele Beispiele nennen, wo der Mensch ob seiner kinematischen und motorischen Konstitution unzulänglich ist für verschiedene Dinge, die wir ausführen möchten. Und da bedienen wir uns auch der Maschinen – und das ist auch gut so. Im Grunde steht die Position des Menschen hier nie infrage, er ist immer das Zentrum. Der Fokus von all dem, was wir in der Entwicklung von Technologie machen, muss dem Menschen einfach dienen.
Das „Internet der Dinge“ hängt noch sehr vom Menschen ab, es müssen Updates eingespielt werden und es braucht noch stets den Menschen, damit es sich weiterentwickeln kann. Wie sehen Sie das Thema Sicherheit beim „Internet der Dinge“?
Alois Ferscha: Das Thema Sicherheit spielt nicht nur im Internet der Dinge eine große Rolle sondern bei allen technologischen Entwicklungen. Bei autonomen Vehikeln gibt es mittlerweile große Unfälle, wenn auch in bescheidener Zahl, wo Sensoren darauf optimiert sind, freie Fahrt zu erkennen, auch wenn unterhalb eines Sattelschleppers durchgemessen wird und die Seitenwand den Himmel spiegelt und dort das optische System einen wolkigen Himmel und damit freie Fahrt erkennt, und das Vehikel ungebremst in den Sattelschlepper einfährt und der Mensch ums Leben kommt. So bedauerlich dieser Unfall auch war, aber er gehört in die Kategorie der Unfälle der Anfänge. So war das auch beim ersten intelligenten eingebetteten System Mitte der 1950er Jahre: Beim implantierten Herzschrittmacher misst ein Prozessor die Herzfrequenz, greift bei Rhythmusstörungen ein und setzt Impulse, um den Menschen damit am Leben zu halten. Hier hat es zu Beginn auch Unfälle gegeben, und dennoch setzen Menschen diese Technologie ein, um dieses unabsehbare Risiko zu versterben abzuwehren. All diese Technologien haben einen Reifegrad – dieser wird besser und besser, das trifft auch auf die Sicherheit zu. Die Sicherheit ist ein Bedürfnis des Menschen und all das, was die Bedürfnisse des Menschen ausmachen, münzt sich auf diesen Umschlagplätzen der Technologie auch in die Bereitschaft Geld darin zu investieren – damit ist absehbar, dass das „Internet der Dinge“ immer sicherer werden wird.
In der Industrie 4.0 kommunizieren Dinge in der Fabrikhalle miteinander, zuhause vernetzen sich Dinge im Smart Home. Wie sieht es hier eigentlich mit Standards aus?
Alois Ferscha: Dinge, die industriell und damit praktisch erfolgreich sind, sind zumeist entlang von Standards, vielleicht gar nicht von verschriftlichten sondern nur vereinbarten und gegenseitig zugestimmten Standards entstanden. Der verlässlichste Standard im Internet der Dinge ist das IP-Protokoll, von Leonard Kleinrock in den 1960er Jahren entwickelt. Es teilt Nachrichten in Pakete, nummeriert die Pakete, schickt die Pakete über physikalische Kommunikationskanäle, Leitungen, durch ein Netzwerk und setzt entsprechend der Nummern die Nachricht wieder zusammen. Ein weltweit etablierter Standard – an die 4,3 Milliarden PCs und 6,2 Milliarden Smartphones funktionieren auf Basis dieses Standards.
In der Hierarchie der Abstraktion mit Webtechnologie bis hin zu Semantic-Systems und lernenden und denkfähigen Systemen bauen sich diese Standards auch in die Höhe. Dadurch dass am freien Markt jeder auch als Teilnehmer sein Geld verdienen möchte, sehen viele auch die Chance, durch Eigeninitiative und Abgrenzung von anderen, durch eigene Standards, sich zu entwickeln – was natürlich hinderlich ist in der globalen Beschau dieser lokalen Standards. Das ist und war immer so, ich sehe da auch keine besondere Gefahr, lediglich ein bisschen Verzug – es könnte schneller gehen, wenn man ein Kommittent zu einem Standard als Referenz hätte und alle entsprechend diesem entwickeln und weiterarbeiten würden. So dauert es eben etwas länger und es wird trotzdem zum selben Ziel kommen, dass die Dinge mit Verlässlichkeit aufeinander Bezug nehmen, einander erkennen, denken werden können.
Was ist das interessanteste Ding im „Internet der Dinge“ für Sie?
Alois Ferscha: Ein interessantes, mittlerweile nicht mehr das allerinteressanteste Ding war unsere damalige Datenbrille. Das hat auch seine Nachahmer gefunden. So hat uns auch Thad Starner besucht, der dann CEO des Google-Glass-Projekts war, und unsere Papers wie „Wearable Displays for Everyone!“ reviewt hat. Technologie für alle – in Brillenform. Das schon deshalb eine Referenz für unsere Forschung, weil es auch die Art, wie Menschen mit Technologie umgehen, am besten widerspiegelt. Brillen setzt man abgesehen von dem Zweck der Behübschung deshalb auf, weil sie eine Sehschwäche kompensieren. Sie kompensieren etwas, was der Mensch Kraft seiner Biologie, Motorik oder biologischen Fähigkeiten alleine nicht kann oder nicht mehr kann, in Technologieform.
„Man nimmt etwas Technologie an sich, dann sieht man wieder etwas scharf mit dieser Brille, und wenn man wieder keine Lust mehr hat, scharf zu sehen, dann legt man sie wieder zur Seite.“
Dieses Bild gilt für mich auch für das Internet der Dinge. Es ist nicht eine auf ewig und permanente Verheiratung, es ist immer noch dem freien Willen des Einzelnen unterlegen, ob man jetzt ein „Internet-der-Dinge“-Ding sein Eigen nennt und mit dem beliebig viel und lange interagiert. Insofern war die Brille ein sprechendes Beispiel dafür, wie wir das Verhältnis Mensch-Maschine im Internet der Dinge verstehen sollten. Es geht um Hilfestellung, aber nur solange als es der Mensch wünscht, und wenn er es nicht mehr wünscht, legt er die Technologie zur Seite und ist wieder „Mensch pur“.
Univ.-Prof. Dr. Alois Ferscha ist Vorstand des Institutes für Pervasive Computing an der JKU Linz, sowie Leiter des RSA FG Research Studios Pervasive Computing Applications und Leiter des österreichischen COMET K1-Kompetenzzentrums für Produkte und Produktionssysteme der Zukunft, Pro²Future .