Refugee Camps als Versuchsfeld für neue Technologien: Ariana Dongus

Die Autorin Ariana Dongus spricht am Ars Electronica Festival im Themensymposium (7. September 2018) darüber, wie aus Refugee Camps des UNHCR Versuchslabore für biometrische Datenerfassung werden. Im Interview hat sie vorab mit uns über Biometrik, Verantwortung und immaterielle Arbeit gesprochen.

| | |

Die Entscheidung scheint simpel: Entweder man lässt einen Iris-Scan – und alle datenrechtlichen Gefahren, die damit einhergehen – über sich ergehen. Oder eben nicht, verliert dadurch aber den Anspruch auf Hilfeleistungen und den Flüchtlingsstatus. In vielen Refugee Camps des UNHCR ist das bittere Realität: Neue Technologien werden auf diese Art und Weise im globalen Süden getestet, bis sie in der westlichen Welt als sicher und damit verkäuflich gelten.

Als Teil ihres Forschungsprojektes am KIM/Center for Critical Studies in Machine Intelligence untersucht die Autorin Ariana Dongus diese Digitalisierungsstrategie in den UNHCR Camps; für Die Zeit hat sie gemeinsam mit Christina zur Nedden auch eine Reportage zum Thema geschrieben („Getestet an Millionen Unfreiwilligen“, hier).

Am Ars Electronica Festival spricht sie im Themensymposium am 7. September 2018 darüber, wie der Einsatz von Biometrik einer Fortsetzung kolonialer Strukturen gleichkommt und inwiefern die Geflüchteten eine neue Art immaterieller Arbeit ausführen. Am Festivalsamstag, 8. September, leitet Ariana Dongus außerdem eine Expert Tour zum Thema „ERROR – Who decides what the norm is?“. Im Interview erfahren Sie bereits jetzt mehr.

Protoypen von EyePay. Credit: Ariana Dongus

Du sprichst beim Themensymposium im Block „Fakes, Responsibilites and Strategies“ über „The Camp as Labo(u)ratory“ – was versteckt sich hinter dem Titel?

Ariana Dongus: Ich spreche über den Einsatz von Biometrie in Flüchtlingscamps des UNHCR. Seit einigen Jahren hat die biometrische Erfassung von Geflüchteten einen zentralen Platz in der Digitialisierungsstrategie in den Camps des UNHCR weltweit. Der Präsentationstitel ist Teil meiner Forschungsprojektes am KIM/Center for Critical Studies in Machine Intelligence, in dem ich zwei Hauptfragen diskutiere.

Ein Strang illustriert die These, dass die Camps Orte von Testlaboratorien sind, in denen die Technologie an Menschen, die keine wirkliche Wahl haben, ausgetestet und somit marktreif gemacht wird.  Unter welchen Bedingungen also werden die individuellen Menschen in Camps zu einer Masse an reinen Testobjekten und welche kolonialen Kontinuitäten werden hier sichtbar?

Der zweite Strang fragt nach der politischen Ökonomie des Camps: Inwiefern führen die biometrisch registrierten Menschen im Camp damit eine neue Form immaterieller Arbeit aus und was macht diese Daten wertvoll? Sie sind meines Erachtens ein Teil der Wertschöpfungskette neuer Märkte, welche die Minderheiten und Armen dieser Welt für sich entdeckt haben. Von den Verfechtern dieser Aktivitäten wird dies „Banking the Unbanked“, „Banking the Poor“ beziehungsweise die vierte industrielle Revolution genannt.

Chief Operating Officer Joe O’Caroll von IrisGuard zeigt das Innenleben von EyePay. Credit: Ariana Dongus

Seit Ende des Kalten Kriegs und spätestens mit den zahlreichen politischen, ökologischen und wirtschaftlichen Krisen und Kriegen dieser Tage, baut das Hilfswerk der Vereinten Nationen (UNHCR) weltweit Lager aus, um Geflüchtete unterzubringen. Dabei kann man das Flüchtlingslager auch sinnbildlich als Produkt globaler Deregulierung im 21. Jahrhundert verstehen: Das UNHCR ist eine Institution, die lokal, national und international agiert, sie entscheidet über das Leben (und Sterben) von Millionen Menschen und zwingt sie teilweise, sich in ein Lager zu begeben, wie es Michel Agier in seinen Studien zeigt (siehe zum Beispiel hier). Hier wird die Lagerung dieser Menschen, wie es das Wort bereits suggeriert, zur Manifestation eines Dauerzustandes als Ausnahmezustand. In den Flüchtlingslagern lebt ein bedeutender Teil der Weltgesellschaft, in vielen Fällen jahrzehntelang. 2016 waren laut UNHCR 65,6 Millionen auf der Flucht, so viele Menschen wie nie zuvor. Wie sie dort leben und behandelt werden, veranschaulicht, wie die Vereinten Nationen Unerwünschtes organisieren, verwalten und produktiv verwerten. Zudem ist es ein enormes Machtungleichgewicht, wenn man sich vorstellt, dass UNHCR über die biometrischen Daten Millionen von Menschen verfügt.

Der Kontext von Unsicherheit, Ausnahmezustand und Dringlichkeit lässt jegliches Tätigwerden des UNHCR per definitionem schon immer experimentell sein. Dennoch ist der Gebrauch experimenteller Verfahren und Technologien wie dem der Biometrie in diesem unsicheren Kontext gerade deshalb äußerst fragwürdig. Legitimiert durch die Referenz auf die dringliche Notsituation werden in einer Logik von „something must be done urgently“ technologische Experimente durchgeführt. Werden im globalen Norden neue Technologien vor Marktreife unter gesetzlich geregelten Bedingungen getestet, so ist das Flüchtlingscamp in diesem Fall das Labor und die Geflüchteten werden zu live Testobjekten.

Imad Malhas präsentiert Iris Scan-Gerät für die Wüste (Eyehood). Credit: Ariana Dongus

Gemeinsam mit Christina zur Nedden hast du eine Reportage über Camps in Jordanien geschrieben, in denen Geflüchtete mit Iris-Scans registriert werden – ob sie wollen oder nicht. Wozu dienen die Iris-Scans und was passiert, wenn man sich ihnen entzieht?

Ariana Dongus: Die biometrische Erfassung ist Teil der Registrierung in der Erstaufnahme im Camp. Ohne den Augenscan gibt erhält man keinen Flüchtlingsstatus, keine Hilfsleistungen: Entzug ist also nicht möglich.

Die Begründung ist unter anderem eine schnellere und effizientere Organisation und die Verhinderung von Doppelregistrierungen. Die Technologie soll Doppelgänger ausschließen und bedeutet meines Erachtens nach zugleich einen Paradigmenwechsel im Bild eines geflüchteten Menschen: Menschen, die in ein Camp des UNHCR fliehen, stehen fortan unter einem Generalverdacht, Betrüger zu sein und sind nicht mehr an erster Stelle Schutzsuchende, denen geholfen werden sollte. Nur wenn sie sich registrieren lassen, erhalten sie Hilfe.

Blick auf den Arbeitsplatz. Credit: Ariana Dongus

Es geht im Block „Fakes, Responsibities and Strategies“ – wie der Name verrät – auch um Verantwortung. Wie schätzt du die Lage in Jordaniens Camp ein, welche Verantwortung übernimmt hier das UNHCR mit der Beschäftigung der Firma IrisGuard (oder vielleicht umgekehrt, vor welcher Verantwortung drückt es sich)?

Ariana Dongus: Die Firma IrisGuard bietet End-to-End Solutions an, das heißt, sie stellt die Geräte, die Software und eine Cloudplattform zur Verfügung, auf der die Daten gespeichert werden. Die Daten werden darüber hinaus auch in einer Datenbank in Genf gespeichert, sind aber gleichzeitig über die Cloud weltweit abrufbar. Laut IrisGuard hat niemand außer UNHCR Zugriff auf die Daten. Dennoch gibt es viele offene Fragen, etwa was die Supermärkte im Camp mit den Daten anfangen, denn sie sehen ja, wer wann was einkauft, etc.

Von IrisGuard aus gesehen liegt also alle Verantwortung beim UNHCR. Dies ist zumindest rechtlich nicht ganz ungeschickt, da das UNHCR zum Beispiel aufgrund von nachweisbaren Datenmissbrauch, Leaks oder ungenügend gesicherten Computerzugängen juristisch nicht belangt werden kann. Ich weiß nicht, ob man sagen kann, dass beide Partner sich gegenseitig Verantwortung zuschieben, aber was für mich hier schon sehr deutlich wird ist, dass in diesem Workflow der Biometrisierung von Millionen von Menschen der Technologie als neutrales und wertfreies Tool viel Vertrauen und demnach vielleicht auch etwas zu viel Verantwortung zugemutet wird.

Das Flüchtlingshilfswerk arbeitet generell auf operationaler Ebene zunehmend in Public-Private Partnerships und lagert große Teile seiner Hilfsleistungen auf private Unternehmen aus. Mehrheitlich sind dies kommerzielle Firmen, deren Geschäftsmodell auf Big Data fußt. Man scheint mittlerweile auch in der humanitären Hilfe daran zu glauben, dass massenhaft gesammelte Daten Muster der sozialen Physik von Gesellschaft offen legen. Dies geschieht in einem Umfeld, in dem das UNHCR ein Klima US-amerikanischer Start-Up Culture als sein Grundprinzip fördert.

Prototypen. Credit: Ariana Dongus

Als koloniale Strategie wäre daher meines Erachtens zu beschreiben, dass „fail fast, often and early“, ein Silicon Valley Slogan, zur Leitidee geworden ist, welche die direkte Verantwortlichkeit des UNHCR an jene Partnerships auslagert und als Glaubensmantra an einen völlig branchenfremden Ort wie dem Flüchtlingslager verpflanzt. Insbesondere in der Förderung vermeintlich neutraler, apolitischer Technologien, die als Ersatz für politisches Handeln angelegt sind, findet sich ein aggressiver technologischer Utopianismus wieder, der die Verantwortung für die akute Notlage auf die Seite der Geflüchteten abwälzt.

Dies errichtet meines Erachtens nach in der Folge ein Prekariat, welches zu verringern die eigentliche Aufgabe der Flüchtlingshilfe ist und etabliert ein Misstrauensregime zu Lasten der Geflüchteten. So gehört spätestens seit 2016 die biometrische Erfassung aller Geflüchteten zur grundlegenden Strategie des UNHCR, um das Identitätsmanagement und die Institutionalisierung von cash-based interventions zu etablieren. Früher wurden Nahrungsmittelrationen ausgeteilt und heute mehr und mehr entweder Bargeld oder eben bargeldloses Bezahlen: Das heißt, dass die Geflüchteten im campeigenen Supermarkt per Augenaufschlag bezahlen.

Credit: Ariana Dongus

Wo liegen die Gefahren von solchen biometrischen Erkennungssystemen, wo aber auch die Chancen?

Ariana Dongus: Ich befürchte, dass wir eigentlich noch gar nicht genau wissen, was mit den Daten geschehen könnte, gerade weil es noch nicht so lange geschieht. Die geflüchteten Menschen müssen bei der Registrierung eine Formalie unterschreiben, die wir auf Nachfrage bei UNHCR jedoch nicht einsehen konnten. Denn es ist mehr als fragwürdig, ob die Menschen wirklich wissen, was mit ihren Daten geschieht.

In Jordanien ist es beispielsweise so, dass die Iris Scans vom UNHCR mit der Cairo Amman Bank geteilt werden. Von dort aus werden die Transaktionen koordiniert, zum Teil geschieht dies aber auch über Kryptowährung wie Ethereum. Es ist nicht klar, ob die Menschen dies überhaupt wissen. Noch unklarer ist, ob und in welchem Umfang diese Bank die Daten mit anderen third parties teilt. Dass keine Alternative zum Scannen angeboten wird, finde ich unter diesen Bedingungen sehr problematisch. Mit wem werden diese Daten noch geteilt? Ein Beispiel: Über 68,000 Rohingyas, eine in Myanmar verfolgte muslimische Minderheit, sind vor Terror und Gewalt über die Grenze nach Bangladesch geflohen. Ihre Finger, Augen und Gesichter wurden biometrisch registriert. Das UNHCR teilte diese Daten mit der Regierung in Bangladesch. Im Frühjahr dann trat Bangladesch mit der Regierung in Myanmar in Verhandlung, um die Menschen, mitsamt ihrer Daten, wieder zurück zu schicken. Das muss man sich mal vorstellen: Eine ethnische Minderheit, die in ihrer Heimat aufgrund ihrer Identität verfolgt wird. Diese Datenbanken können also lebensbedrohliche Auswirkungen haben, wenn sie in die falschen Hände kommen. Dies ist ein großes Dilemma.

Eine weitere Gefahr liegt in der strukturell eingebauten Tendenz dieser Technologie, zu diskriminieren. Die Technologie funktioniert durch automatisiert erstellte Templates: Es wird ein Foto vom Auge oder vom Gesicht gemacht, dann wird daraus mittels eines Algorithmus ein Barcode erstellt. Dieser Prozess ist normiert, der Forscher Jospeh Pugliese spricht hier von „structural whiteness“. Dann ist es natürlich klar, dass alle Augen und Gesichter, die aus der Norm herausfallen, oft entweder gar nicht oder falsch erkannt werden, was zu Fehlerquellen führen kann.

Imad Malhas steht vor versandbereiten EyePay Paketen. Credit: Ariana Dongus

Ich denke, dass ein verantwortungsbewusster Umgang mit solchen Daten immer bedeuten muss, die Rechte und Sicherheit der Menschen an erste Stelle zu positionieren. Eine Annäherung, wie das aussehen könnte, wirklich die Menschen und ihre Bedürfnisse in den Vordergrund zu stellen, ist die dringliche Frage, die in vielen NGOs diskutiert wird.

Mit Zara Rahman von der NGO The Engine Room haben Christina zur Nedden und ich auch im Rahmen der Recherchen gesprochen. Sie verfolgen aufmerksam und kritisch die Arbeit des UNHCR und arbeiten vor Allem daran, wie sie Aktivisten und Aktivistinnen, sowie anderen Organisation helfen, mit Daten verantwortungsvoll umzugehen und sie als Agenten und Agentinnen für soziale Veränderung oder Veränderungen zu nutzen.

Ganz generell ist zu beobachten, dass biometrische Anwendungen einen riesigen Wachstumsmarkt darstellen und nicht nur in Flüchtlingscamps eingesetzt werden — das iPhone X mit eingebauter Gesichtserkennungssoftware ist ein populäres Beispiel. Doch klar ist eben auch, dass diese Biometrie-Anwendungen erst als sicher für die westlichen Märkte gelten konnten, als sie im globalen Süden getestet wurde, wie auch die Soziologin Katja Lindskov Jacobsen in ihren Studien herausarbeitet.

Natürlich muss es auch eine Akzeptanz für die Technologie in westlichen Märkten geben, das ist klar, aber es gibt eben — und das ist eine historische Konstante, die weit über den Kolonialismus hinausreicht — eine „hidden history of experimentation“, durch die Technologien von den Körpern von Minderheiten in unsicheren Gebieten sicher für die Bürger und Bürgerinnen westlicher Regionen wurde. Auch hier kann man die Frage stellen, was das eigentlich für eine Form von Arbeit ist…

Ich denke, man kann hier von einer neuen globalen wirkmächtigen Norm sprechen, die „identity-making“ ganz selbstverständlich an biologische Zugriffe und Vermessungen des menschlichen Körpers wie Biometrie- oder DNA-Daten  knüpft. Diese digitalen Identitäten sitzen in Datenbanken: Sie sind fehleranfällig, heikel und sehr wertvoll.  Die Autorin und Filmemacherin Hito Steyerl hat es vor einiger Zeit gut auf den Punkt gebracht: identity is the name of the battlefield over your code — be it genetic, informational, pictorial.

Ariana Dongus ist eine Autorin, die mit (bewegten) Bildern in Berlin arbeitet. Zurzeit promoviert sie an der Hochschule für Gestaltung in Karlsruhe mit dem Zentrum für Critical Studies in Machine Intelligence.

Ariana Dongus spricht am Freitag, 7. September 2018, ab 14:00 Uhr im Block „Fakes, Responsibilities and Strategies“ der Themenkonferenz in der Conference Hall der POSTCITY Linz. Das gesamte Programm der Konferenz finden Sie hier. Außerdem leitet sie am Samstag, 8. September 2018, von 12:00 bis 13:30 eine Expert Tour zum Thema „ERROR – Who decides what the norm is?“. Hier erfahren Sie mehr.

Um mehr über Ars Electronica zu erfahren, folgen Sie uns auf FacebookTwitterInstagram und Co., abonnieren Sie unseren Newsletter und informieren Sie sich auf https://ars.electronica.art/.