Über verschiedene Initiativen versucht Ars Electronica die Sichtbarkeit von in der Medienkunst tätigen Frauen in der Öffentlichkeit zu verstärken und Vorbilder für Mädchen und Frauen in den Vordergrund zu stellen. Aus dieser Motivation heraus ist Women in Media Arts – eine umfangreiche Datenbank, die sich speziell den Frauen in der Medienkunst widmet – entstanden. Die Datenbank startete mit Informationen über Protagonistinnen, die eine Spur in der (damals) 36-jährigen Geschichte der Ars Electronica hinterlassen haben und wurde dann um ein öffentliches Eingabemodul erweitert.
BenutzerInnen sind jetzt dazu eingeladen, Beiträge zu Künstlerinnen beizusteuern. Die Einträge bieten für Künstlerinnen die Möglichkeit, sich auf der Plattform zu präsentieren, auch dann, wenn diese nicht im Kontext der Ars Electronica erschienen sind. Die Datenbank dient als aktive Recherche-Plattform für KünstlerInnen, KuratorInnen und WissenschaftlerInnen und für alle, die sich für das Thema “Frauen in der Medienkunst” interessieren.
Women in Media Arts wird laufend aktualisiert und erweitert. Zugänglich ist die Plattform über das Onlinearchiv von Ars Electronica.
Denken intelligente Maschinen wie ein weißer Mann?
Künstliche Intelligenz ist zunehmend ein Thema im Diversity-Diskurs – zurecht! Immer mehr AktivistInnen weisen auf die problematischen Vorurteile und Verzerrungen von vermeintlich objektiven Algorithmen hin. Das hat nicht nur mit dem geringen Anteil an Programmiererinnen und Frauen im IT-Bereich allgemein zu tun, sondern vor allem mit den verzerrten Datensätzen. „Die KI ist nur so gut oder so fair, wie die Daten, die sie füttern“, gilt als oberste Prämisse.
Die folgenden Künstlerinnen und Aktivistinnen haben sich mit den technischen Entwicklungen und den daraus entstehenden gesellschaftlichen Folgen auseinandergesetzt. Die daraus gewonnenen Erkenntnisse haben sie in Projekte umgesetzt, die wir euch hier kurz präsentieren möchten:
Joy Buolamwini (US), Timnit Gebru (ETH): Gender Shades
Joy Buolamwini und Timnit Gebru untersuchten in „Gender Shades“ die Vorurteile von KI-Gesichtserkennungsprogrammen. Deren Fehlerquote ist bei Frauen, insbesondere bei Frauen mit dunklerer Hautfarbe, deutlich höher.
Die Studie zeigt, dass populäre Anwendungen bereits in der Programmierung eine klare Diskriminierung hinsichtlich des Geschlechts oder der Hautfarbe von Menschen aufweisen. Ein weiterer Grund für diskriminierende Ergebnisse liegt in fehlerhaften oder inkompletten Datensätzen, mit denen die Programme trainiert werden.
Dies kann etwa bei medizinischen Anwendungen ein Problem sein: Bereits einfache Convolutional Neural Networks – künstliche neuronale Netzwerke – sind fähig, auf Bildern Melanome (bösartige Hautveränderungen) genauso gut zu erkennen wie ExpertInnen. Informationen über die Hautfarbe sind dabei äußerst wichtig.
Die beiden Forscherinnen haben daraufhin einen neuen Benchmark-Datensatz, also neue Vergleichsmaßstäbe erstellt. Er beinhaltet die Daten von 1.270 ParlamentarierInnen dreier afrikanischer und dreier europäischer Länder. Buolamwini und Gebru haben damit den ersten Trainingsdatensatz geschaffen, der alle Hautfarbentypen beinhaltet und gleichzeitig die gesichtsbasierte Geschlechtserkennung testen kann.
Mary Flanagan (US): [help me know the truth]
Dass ein diskriminierender Algorithmus nicht aus einem sexistischen oder rassistischen Wesen der Maschine entsteht, sondern aus den Strukturen unserer Gesellschaft, wird einmal mehr im Projekt „[help me know the truth]“ von Mary Flanagan deutlich.
Basierend auf Erkenntnissen der kognitiven Neurowissenschaften und den Ergebnissen einer BesucherInnen-Beteiligung kreiert [help me know the truth] aus einem digitalen Selbstporträt den — im wahrsten Sinne des Wortes — perfekten Stereotypen.
Einfache Fragestellung fordern dazu auf, zwischen zwei leicht veränderten Porträts zu wählen. Die Kriterien, nach denen unterschieden wird, reichen von „Wählen Sie das Opfer“ bis zu „Geben Sie den Anführer an“. Die TeilnehmerInnen entscheiden unter anderem auch darüber, welches Gesicht etwa das engelhafteste, freundlichste oder kriminellste ist.
Caroline Sinders (US): Feminist Data Set
Diesem Bias will Caroline Sinders aktiv entgegenwirken. Feminist Data Set ist ein laufendes, mehrjähriges Kunstprojekt, das Vorträge und Workshops kombiniert und zur Sammlung feministischer Daten aufruft, die Interventionen im Bereich des maschinellen Lernens schaffen sollen. Was sind feministische Daten? Feministische Daten können Kunstwerke, Essays, Interviews und Bücher über Feminismus oder aus einer feministischen Perspektive sein. Mit diesem feministischen Datensatz soll dem Bias im maschinellen Lernen entgegengewirkt und die Möglichkeit der Datenerhebung als feministische Praxis eingeführt werden.
Caroline Sinders hat außerdem gemeinsam mit Anna Ridler die aktuelle AI Lab Residency gewonnen und wird am Edinburgh Futures Institute (EFI) in Edinburgh sowie am Ars Electronica Futurelab in Linz an ihrem Projekt zum Thema „AI isn’t Artificial but Human“ arbeiten.
Birgitte Aga (UK), Coral Manton (UK): Women Reclaiming AI
Ein weiteres Beispiel für aktivistischen Umgang mit künstlicher Intelligenz zeigen die Künstlerinnen Brigitte Aga und Coral Manton. Sie beziehen sich in „Women Reclaiming AI“ auf die allgegenwärtige Darstellung von Frauen durch KI-Sprachassistenten als geschlechtsspezifisch, untergeordnet und dienend. Diese Systeme werden in der Regel von Teams entwickelt, denen es an Vielfalt mangelt und sind damit eingebettet in verzerrte Weltanschauungen und Stereotype, die traditionelle Geschlechterrollen verstärken. Mit dem Projekt zielen die Künstlerinnen darauf ab, weibliche Stimmen bei der Entwicklung zukünftiger KI-Systeme zurückzugewinnen, indem Frauen befähigt werden, die dialogische KI als Medium für den Protest zu nutzen. Mit der Kreation einer eigenen Sprachassistenz werden die Geschlechterrollen herausgefordert.
Weitere Einblicke in die (fehlende) weibliche Perspektive in der künstlichen Intelligenz finden sich etwa im Vortrag der beiden Künstlerinnen am Ars Electronica Festival letzten Jahres: „Talk about inclusive AI”