Gender Shades, Credit: MIT Media Lab

Gender Shades

Joy Buolamwini, Timnit Gebru

Joy Buolamwini und Timnit Gebru untersuchten die Voreingenommenheit von KI-Programmen in der Gesichtserkennung.

Die Studie besagt, dass populäre Anwendungen bereits in der Programmierung eine klare Diskriminierung hinsichtlich des Geschlechts oder der Hautfarbe von Menschen aufweisen. Ein weiterer Grund für unfaire Ergebnisse liegt in fehlerhaften oder inkompletten Datensätzen, mit denen die Programme trainiert werden. Dies kann etwa bei medizinischen Anwendungen ein Problem sein: Bereits einfache Convolutional Neural Nets – künstliche neuronale Netzwerke – sind fähig, auf Bildern Melanoma (bösartige Hautveränderungen) genauso gut zu erkennen wie ExpertInnen. Informationen über die Hautfarbe sind dabei äußerst wichtig. Die beiden Forscherinnen haben daraufhin einen neuen Benchmark-Datensatz, also neue Vergleichsmaßstäbe erstellt. Er beinhaltet die Daten von 1.270 ParlamentarierInnen dreier afrikanischer und dreier europäischer Länder. Buolamwini und Gebru haben damit den ersten Trainingsdatensatz geschaffen, der alle Hautfarbentypen beinhaltet und gleichzeitig die gesichtsbasierte Geschlechtserkennung testen kann.

By starting the content, you agree that data will be transmitted to www.youtube.com.
Data Protection Declaration

Credits: Joy Buolamwini, Founder of the Algorithmic Justice League and Poet of Code