Understanding AI – Hier wird Künstliche Intelligenz erlebbar

Für die neue Ausstellung „Understanding AI“ im Ars Electronica Center hat ein Team aus Forschern, Künstlern und Entwicklern aus dem Ars Electronica Futurelab Installationen entworfen, die erklären sollen, wie Künstliche Intelligenz eigentlich funktioniert. Im Interview verraten sie mehr.

| | |

„Es gibt kein Bewusstsein, keine Intelligenz“, sagt Peter Freudling, Forscher und Entwickler am Ars Electronica Futurelab. Er spricht gerade über Maschinen, Algorithmen, Systeme, die uns schon jetzt jede Menge Entscheidungen erleichtern, manchmal vielleicht sogar abnehmen. Es geht um eine Technologie, die gerade volle Aufmerksamkeit genießt, die uns täglich begleitet und in den nächsten Jahren, Jahrzehnten, sogar eine noch größere Rolle einnehmen soll: Künstliche Intelligenz. Aber ganz so intelligent, meint Peter, sei sie eben doch nicht.

Wie funktioniert Künstliche Intelligenz dann also? Was steckt dahinter? Und wie kann man das einem Museumsbesucher, einer Museumsbesucherin anschaulich erklären? Damit haben sich Peter Freudling und seine Kollegen Ali Nikrang und Stefan Mittlböck-Jungwirth-Fohringer das letzte halbe Jahr lang intensiv auseinandergesetzt. Für die neue Ausstellung „Understanding AI“ im Ars Electronica Center entwickelten sie künstlerisch-wissenschaftliche Installationen, die KI begreifbar machen sollen – zum Ansehen, Mitmachen, Ausprobieren.

Ali Nikrang hat im ersten Teil unserer Interview-Serie bereits erklärt, was eigentlich hinter der Technologie Künstliche Intelligenz steckt. Hier erklärt er gemeinsam mit Peter Freudling und Stefan Mittlböck-Jungwirth-Fohringer, mit welchen eigens entwickelten Installationen KI in „Understanding AI“ erfahrbar wird.

Im ersten Teil unserer Interviewreihe haben wir bereits viel über Künstliche Intelligenz erfahren. Wie geht man an ein so komplexes Thema heran?

Stefan Mittlböck-Jungwirth-Fohringer: In erster Linie ging es uns darum, didaktische Installationen zu schaffen, die Künstliche Intelligenz erklären.

Peter Freudling: Wir wollten damit die Technologie entmystifizieren, weil der Begriff momentan ein großes Buzzword ist und dementsprechend oft falsch verwendet wird. Im Endeffekt geht es einfach nur um Algorithmen, die von Menschen trainiert werden – es gibt kein Bewusstsein, keine Intelligenz in dem Sinne.

Stefan Mittlböck-Jungwirth-Fohringer: Künstliche Intelligenz basiert auf einfachen, mathematischen Funktionen und Formeln. Nicht mehr und nicht weniger. Wir wollen bei den Besuchern und Besucherinnen ein Bewusstsein dafür entwickeln, was wirklich hinter der Technologie und den Bildern, die wir uns davon machen, steckt. Ein Grundverständnis.

Credit: Ars Electronica / Robert Bauernhansl

Zu diesem Zweck habt ihr mehrere Installationen geschaffen. Könnt ihr beschreiben, was es also jetzt im Ars Electronica Center von euch zu sehen gibt?

Stefan Mittlböck-Jungwirth-Fohringer: Die Installation, die uns am meisten beschäftigt hat, war das Neural Network Training. Wir wollen hier das künstliche Neuron erklären, mit praktischen Beispielen und in spielerischer Form. Dazu haben wir zwei Beispiele entwickelt: Einmal trainiert man ein neuronales Netzwerk auf die passende Farbkombination von Schrift und Hintergrund, beim zweiten trainiert man ein Netzwerk darauf, zu erkennen, welche Lebewesen gefährlich für eine Maus sind.

Peter Freudling: Hier wollen wir vor allem unterstreichen, dass es in unserer Macht steht, zu entscheiden, was richtig und was falsch ist. Was ist gefährlich? Was ist harmlos? Die Software antwortet so, wie sie trainiert wurde – egal, was wirklich richtig oder falsch wäre. Neuronale Netzwerke sind eben nichts anderes als eine Anhäufung von vielen Schaltern, die sich immer wieder neu einstellen – wie unser Gehirn eben auch. Bei uns bilden sich Synapsen, so etwas ähnliches passiert zwischen den künstlichen Neuronen.

Stefan Mittlböck-Jungwirth-Fohringer: Als Besucher oder Besucherin kann man die Eingabewerte in so einem Neuron einstellen und dann beobachten, was passiert. Das neuronale Netzwerk gibt eine Statistik aller eingegebenen Werte aus, eine Wahrscheinlichkeit. Beim Farbbeispiel ist das genauso: Ich als Besucher wähle aus, welche Hintergrundfarbe und welche Schriftfarbe für mich am besten lesbar sind – ich trainiere das Netzwerk, und zwar mehrere Male hintereinander. Ab einem gewissen Punkt ist das Netzwerk fertig trainiert und kann dann selbstständig erkennen, welche Farbkombinationen gut lesbar sind und welche nicht.

Hier wird also der menschliche Aspekt noch einmal hervorgestrichen – so, wie man ein künstlich intelligentes System trainiert, wird es antworten.

Stefan Mittlböck-Jungwirth-Fohringer: Genau. Das zeigt die moralischen Fragen auf, die sich hinter dieser Technologie verstecken: Wer trainiert das Netzwerk? Mit welchem Hintergrund? Mit welcher Intention?

Peter Freudling: Wir hoffen zumindest, dass sich diese Fragen auftun.

Vector Space. Credit: vog.photo

Nach einer Installation, die Textbeispiele zeigt, die von einer Maschine geschrieben wurden, kommt man schließlich zum Vector Space.

Ali Nikrang: Bei dieser Installation können die Gewinner und Gewinnerinnen des Prix Ars Electronica der letzten Jahrzehnte geordnet werden. Objekte, die einander ähneln, sollen nahe zusammen angezeigt werden. Was allerdings diese Ähnlichkeit definiert, kann ausgewählt werden: Entweder geht es rein um das Bild, oder rein um den Begleittext, oder um eine Kombination der beiden. Wir benützen hierfür dasselbe Modell, dass auch in der Bilderkennung angewandt wird. Es ist für mich jedoch nicht die Aufgabenstellung, die so interessant ist, sondern was man aus dem Ergebnis lernt.

Credit: vog.photo

Man sieht, dass es eigentlich nur darum geht, Daten auszuwerten.

Peter Freudling: Wenn du dir unser Archiv vorstellst in seiner ganzen Größe, ohne Tags, ohne Ordnung – dass es so schnell geordnet werden kann ist beeindruckend. Es wird auf einmal durchsuchbar, es werden Dinge gruppiert, von denen das Modell glaubt, dass sie zusammengehören.

Ali Nikrang: Du kannst neue Beziehungen entdecken. Es ist Navigieren aus Neugierde.

Stefan Mittlböck-Jungwirth-Fohringer: Was ich an dem Projekt spannend finde, ist dieses Grundverständnis von multidimensionalen Vektorräumen.

Ali Nikrang: Deshalb heißt es Vector Space. Das ist genauso wie in der Spracherkennung, man hat verschiedene Begriffe in einem virtuellen Raum mit vielen Dimensionen. Das Wort „blau“ ist irgendwo verortet, genauso das Wort „rot“. Wahrscheinlich sind die beiden in der Nähe, beide sind Farben. „Projekt“ und „Vorhaben“ sind wahrscheinlich auch nahe zusammen, weil sie dieselbe Bedeutung haben. Dieser Vektorraum ist multidimensional, jedes Wort hat hunderte von Dimensionen, die mit hunderten von Zahlen beschrieben sind.

Peter Freudling: Diese Vektorräume versuchen, unsere Sprache darzustellen. Sonne hat zum Beispiel etwas mit Planeten zu tun, aber kann auch im Bereich Wetter liegen. Nach genau diesen Vektoren werden auch hier bei dieser Installation die Daten geordnet – auf Bild- oder Textähnlichkeit.

Ali Nikrang. Credit: vog.photo

Am Ende der didaktischen Strecke stehen 11 Screens. Was hat es damit auf sich?

Ali Nikrang: Wir sehen hier die Kerntechnologie von Deep Learning, ein Convolutional Neural Network. Die Installation visualisiert, wie Bilderkennung funktioniert: Du hältst ein Objekt vor die Kamera und das System sagt dir, was es ist. Es wurde mit tausend Bildern pro Kategorie trainiert. Um zu zeigen, wie so etwas funktioniert, haben wir den Prozess auf 11 Screens visualisiert. Man sieht die Aktivierungen – so nennt man das. Im Deep Learning gibt es verschiedene Schichten oder Layers, die sieht man hier. Am Anfang erkennt das System nur primitive Elemente, Linien oder Kurven, tiefer im Netz kombinieren sich diese Elemente zu größeren Objekten. Allerdings wird die Information auch immer abstrakter, für uns Menschen nicht mehr verständlich. Für die Maschine ist das Ergebnis dann dafür schon ganz klar.

Stefan Mittlböck-Jungwirth-Fohringer: Unser Wunsch war es, einem neuronalen Netzwerk beim Analysieren sozusagen in Echtzeit zusehen zu können. Wir sagen „die Maschine sieht“, aber es sind eigentlich Filter, das erkennt man hier sehr gut.

Bei Comment AI dann geht es wieder um Text…

Peter Freudling: Die meisten Modelle im Bereich Spracherkennung oder –Erzeugung sind bis jetzt auf Englisch. Wir benutzen hier einen Datensatz von Postings der Website standard.at, von neutral bis hin zu Hate Speech ist hier wirklich alles dabei. Besucher und Besucherinnen können den Postings hier Kategorien zuweisen und damit das Netzwerk trainieren. In Bälde wird es also einen Datensatz von deutschsprachigen Postings geben, den man zum Beispiel universitären Instituten zur Verfügung stellen kann.

Credit: vog.photo

Ganz eine andere Richtung schlägt die Installation ShadowGAN ein – könnt ihr mir davon ein bisschen erzählen?

Stefan Mittlböck-Jungwirth-Fohringer: Hier steht man vor einer weißen Wand, wird von einer Kamera erfasst und schließlich in Sommer- oder Winterlandschaften dargestellt. Wir wollen damit ein Bewusstsein dafür schaffen, dass, wenn ein neuronales Netzwerk nur entsprechende Datensätze gelernt hat, auch nur das zeigen kann. Das ist als Besucher oder Besucherin lustig, man sieht sich selbst als Landschaft!

Ali Nikrang: Die Installation funktioniert mit einem Generative Adverserial Neural Network oder GAN. Man trainiert zwei Modelle gegeneinander, einen Fälscher und einen Richter. Außerdem gibt es einen Datensatz, der bereits richtig annotiert ist. Der Richter bekommt zufällig Bilder vom Datensatz und welche, die vom Fälscher generiert wurden, und muss unterscheiden können, welches Bild von woher kommt. Der Fälscher wird so trainiert, dass er immer bessere Bilder schaffen kann, die der Richter nicht als gefälscht erkennt.

Was ich daran sehr interessant finde, ist, dass das System das Konzept von etwas lernt. Hier kennt es eben das Konzept von Sommer oder Winter – unten ist Schnee, oben ist Himmel, das ist Winter.

Stefan Mittlböck-Jungwirth-Fohringer: Bei unserer Installation GANgadse gleich nebenan ist das genauso, nur, dass das System hier nur mit Katzen trainiert wurde. Man zeichnet Umrisse, die Maschine füllt sie automatisch mit katzenhaften Elementen. Egal, was du zeichnest – es wird immer eine Katze sein.

Glow / Glow Diederik P. Kingma, Prafulla Dhariwal; OpenAI. Credit: vog.photo

Das ist auch eine der Kernproblematiken bei der Installation Glow. Hier kann man das eigene Aussehen verändern…

Ali Nikrang: Das Modell von OpenAI wurde mit vielen Gesichtern von Hollywood-Stars trainiert, wir haben das Interface dazu gestaltet. Wenn ich vor der Installation sitze, kann ich mich mehr oder weniger attraktiver machen, mehr oder weniger Brille einstellen und so weiter. Hier hat das System auch das Konzept gelernt – eine Brille zum Beispiel bedeckt immer beide Augen. Das heißt aber auch, dass du, wenn du als Frau vor dem System sitzt und dir einen Bart machen möchtest, Schwierigkeiten haben wirst. Erst, wenn du zuvor den Regler für „männlich“ stärker aufdrehst, wird das gut funktionieren. Das hat das System so gelernt. Dasselbe gilt für Make-Up und Männer – aber was hat Make-Up mit Geschlecht zu tun?

Stefan Mittlböck-Jungwirth-Fohringer: Künstlich intelligente Systeme sind genauso rassistisch und frauenfeindlich wie die, die es trainieren. Das ist genau die Diskussion, die wir anregen wollen.

Peter Freudling: Was ich wichtig finde bei diesen Systemen, das sieht man vor allem auch bei Convolutional Neural Network: Es erkennt immer alle tausend Kategorien in einem Objekt, nur mit niedriger oder eben hoher Wahrscheinlichkeit. Es ist kein Bewusstsein, nur eine Tendenz. Daraus eine Entscheidung zu machen, das bleibt immer noch uns überlassen.

Ali Nikrang ist Senior Researcher & Artist im Ars Electronica Futurelab, wo er Mitglied der Forschungsgruppe Virtual Environments ist. Er studierte Computer Science an der Johannes Kepler Universität Linz und klassische Musik an der Universität Mozarteum Salzburg. Bevor er 2011 zu Ars Electronica wechselte, arbeitete er als Researcher beim Austrian Research Institut for Artificial Intelligence, wo er Erfahrungen im Bereich Serious Games und simulierte Welten sammelte.

Stefan Mittlböck-Jungwirth-Fohringer ist Lead Producer und Artist am Ars Electronica Futurelab. Er studierte Bildende Kunst und Kulturwissenschaften im Studienzwei Malerei und Graphik an der Kunstuniversität Linz und ist seit 2012 PhD Kandidat bei Prof. Dr. Karin Bruns beziehungsweise Prof. Dr. Thomas Macho. Seit 2001 arbeitet er beim Ars Electronica Futurelab, seit 2006 ist er außerdem Mitglied in der Künstlervereinigung MAERZ.

Peter Freudling ist Lead Producer und Artist am Ars Electronica Futurelab.

 

 

 

Die Installationen des Ars Electronica Futurelab für die Ausstellung „Understanding AI“ sind momentan im Ars Electronica Center zu sehen – und natürlich auch während des Ars Electronica Festivals von 5. bis 9. September 2019! Um mehr über Ars Electronica zu erfahren, folgen Sie uns auf FacebookTwitterInstagram und Co., abonnieren Sie unseren Newsletter und informieren Sie sich auf https://ars.electronica.art/.