Der Artikel wurde zuerst am 18. April 2021 auf geschichtedergegenwart.ch veröffentlicht.


Gesichtserkennungstechnologien werden in unserem Alltag immer präsenter, aber nirgendwo werden sie so vielfältig eingesetzt wie in Xi Jinpings China. Bequem in vielen Alltagssituationen, aber bedrohlich für immer grössere Teile der Bevölkerung, wächst auch in China langsam das Unbehagen.

Noch vor Ausbruch der COVID-Pandemie nahm ein chinesisches Gericht im Oktober 2019 die Klage eines Rechtswissenschaftlers in Hangzhou an. Professor Guo Bing hatte sich geweigert, im Safari-Park der 10-Millionen-Megacity einem neu eingeführten Verfahren zuzustimmen, das bei der Einlasskontrolle Gesichtserkennungssoftware verwendet. Er argumentierte, er habe erhebliche Bedenken sowohl gegen die Zuverlässigkeit des Verfahrens an sich als auch gegen die Speicherung seiner Daten durch einen kommerziellen Betreiber. Zwar wurde die Klage formal wegen Verletzung von Verbraucherschutzrechten eingereicht. Allen Beobachtern war jedoch klar, dass es sich hier um den ersten in der Volksrepublik China bekanntgewordenen Fall handelt, in dem ein Gericht die Verletzung von Datenschutzrechten im persönlichen Bereich zu untersuchen hatte.

„Face-Swiping“

Wenige Wochen später meldete sich auch Lao Dongyan, eine bislang wenig bekannte Pekinger Rechtsprofessorin in einem Blog zu Wort, in dem sie detailliert ihre Opposition gegen die Einführung von „face-swiping” im Pekinger U-Bahn-System erläuterte. Effizienzargumente seien unzureichend, um eine potentiell massenhafte Verletzung von Persönlichkeitsrechten zu rechtfertigen und insbesondere dann gefährlich, wenn sie von Seiten des Staates in Kauf genommen würden. „Was mich wirklich besorgt und in Panik versetzt“, schrieb Lao, „ist, dass meine Informationen von Behörden missbraucht werden. (…) Das hysterische Streben nach Sicherheit hat der Gesellschaft überhaupt keine Sicherheit gebracht, sondern totale Unterdrückung und Panik.“ Das Echo im chinesischen Internet war verhalten, aber doch vernehmbar – spätestens nachdem Professor Lao ihre Bedenken im Frühjahr 2020 auch auf die elektronischen Einlasskontrollen von Wohnsiedlungen ausweitete.

„Überwachung im Innenraum installiert — bitte passen Sie sich dem Normverhalten an!“

Schon seit Jahren wird Gesichtserkennung in China viel weitreichender eingesetzt als in Europa. Viele Bankautomaten sind mit Gesichtsscannern ausgestattet, ebenso Check-in-Counter an Flughäfen, Türen von Behördengebäuden, Studentenwohnheimen oder privaten Wohnanlagen. Mit Gesichtserkennung in öffentlichen Toiletten wird mancherorts der Toilettenpapierverbrauch kontrolliert. Bereits vor fünf Jahren installierten einige chinesische Grossstädte Gesichtserkennungssysteme, um Rotgänger an Ampeln zu identifizieren und ihre Fotos in bester kulturrevolutionärer Denunziationstradition einer Art „Public Shaming” zuzuführen. Über solche Fälle hat Kai Strittmatter in seinem Buch Die Neuerfindung der Diktatur bereits 2018 sehr eindringlich berichtet. Schon wird auch die Aufmerksamkeit von Schulkindern durch Gesichtserkennung überwacht. Die Ergebnisse sind selbstredend Teil der Evaluationen des Lehrpersonals, dessen Unterricht sowieso komplett videoaufgezeichnet wird. Von den „tiger mums” und „helicopter dads” im wahrscheinlich kompetitivsten Erziehungssystem der Welt sind bislang wenig Widerstände bekannt. Mittlerweile hat die Gesichtserkennung auch die Speziesgrenze überschritten: Chinesische Schweinefarmer nutzen sie nicht nur, um die Tiere elektronisch unterscheiden zu können, sondern auch, um frühzeitig Rückschlüsse auf Erkrankungen, insbesondere auf geschmacksbeeinträchtigende „Depressionen” des Borstenviehs ziehen zu können.

Quelle: sixthtone.com

Akzeptanz der Überwachung und erste Proteste

Zweifellos geniessen digitale Überwachungsformen in China eine sehr viel höhere Akzeptanz als im eher technikskeptischen Mitteleuropa – eine Reaktion wie jene von Professor Guo hätte man daher kaum erwartet. Wer mit der in China so genannten „Schweizermesser-App” WeChat fast alles auf dem Smartphone erledigt – vom Bestellen des Menus im Taxi auf dem Weg zum Restaurant bis hin zur Kaufabwicklung von Luxusimmobilien – wird sich nicht wundern, dass sie bald als Ersatz für den Personalausweis gelten soll. Eine ähnliche Nonchalance kennt man auch aus Osteuropa und Südostasien – beide Regionen neben afrikanischen Staaten heute Grossabnehmer der von ca. 7.400 chinesischen Unternehmen produzierten Gesichtserkennungssysteme. Man darf vermuten, dass die Bereitschaft, sich Formen digitaler Überwachung zu unterwerfen, häufig umgekehrt proportional zu den Korruptionsindizes einzelner Gesellschaften verläuft.

Die Hoffnung einiger Kritiker, dass man durch das Tragen des Nasen-Mundschutzes während der Pandemie den Gesichtserkennungssystemen entgehen könnte, zerschlugen sich übrigens schnell. Schon Mitte Januar 2020 war in China klar, dass die staatlichen Systeme auch mit Maskenträgern keine ernsthaften Probleme haben. Ihre Datenbanken waren schon lange anhand vollbarttragender Moslems in Nordwestchina und Pakistan trainiert worden. Ein Grossteil der Erfolge bei der Eindämmung des Corona-Virus in China, aber auch in den disproportional zur Enge ihrer Beziehungen zur Volksrepublik wenig betroffenen demokratischen Nachbarstaaten wie Taiwan, Südkorea und Vietnam, beruht auf dem konsequenten Einsatz von smarten tracking-Technologien.

Temperatur-Monitoring; Quelle: bbc.com

Schon erscheinen die ersten Studien in China, bei denen die Erkennungssoftware auch gleich die Wahrscheinlichkeit einer Corona-Infektion des oder der fiebrigen Träger:in hinter dem Mundschutz mitbestimmen soll. Wie stabil angesichts solcher auch positiver Aspekte die Überwachungsskepsis gerade bei jüngeren Generationen in Europa verankert ist, bleibt abzuwarten.

Wie Professor Guo zwischenzeitlich in Interviews klarstellte, waren für seine Sorge ursprünglich gar nicht die Zooscanner ausschlaggebend, sondern mittlerweile verbotene „Deepfake”-Apps, die es ermöglichen, elektronisch Gesichtsdaten zu tauschen. Meistens dienen sie dazu, coole Dating-Profile zu erstellen, keineswegs zur Umgehung staatlicher Kontrollen. Andererseits werden sich einige erinnern, wie Tom Cruise in Minority Report bereits 2002 abwegige personalisierte Produkte angeboten bekam, weil er sich von einem schwedisch nuschelnden Guerilla-Ophthalmologen neue Augäpfel hatte einsetzen lassen, um dem staatlichen Irisscan zu entgehen. Bei P.K. Dick (1928–1982), von dem die zugrundeliegende Erzählung von 1956 stammt, sind es noch die „Precogs”, hellsehende Mutanten, welche dem Staat Hinweise für die „präemptive” Verbrechensbekämpfung liefern. Die Überwachungscomputer heutiger Regimes brauchen keine wundersam mutierte menschliche Voraussicht mehr, solange sie direkt auf massenaggregierte Daten zurückgreifen können.

3D-Gesichtsmasken: Quelle: entrepreneur.com

Zehn Jahre nach der ersten vollständigen Gesichtstransplantation brachte 2020 ein japanisches Unternehmen nun auch „naturgetreue“ Gesichtsmasken aus dem 3D-Drucker auf den Markt. Diese werden bislang von allen gängigen Erkennungssoftwares als authentisch identifiziert. Werden wir also bald mit Vollgesichtsmasken unserer ärgsten persönlichen Feinde durch die videoüberwachten Städte laufen? Wer wird sich in China den ersten Deepfake-Ausdruck eines hochrangigen Parteikaders bestellen?

F/Racial Recognition und Emotionserkennung

Bereits seit 2015 betreibt China ein Projekt, dessen Ziel die online-Identifikation aller Bürger:innen innerhalb von Sekunden ist. Vorangetrieben wird es u.a. von den FirmenIs’vision in Shanghai und Seetech in Peking. Noch sind die auf 15 Terabyte geschätzten Gesichtsdaten offenbar nicht vollständig, aber das ist nur eine Frage der Zeit. Den Staat scheint dabei die Vorstellung nicht zu irritieren, dass eine Festplatte dieser Grösse bequem in einer Handtasche transportiert und in unliebsame Hände geraten könnte. Oberste Ziele seien öffentliche Sicherheit, Terrorismus- und Korruptionsbekämpfung.

Überwachungskameras auf dem “Platz des Himmlischen Friedens”, 2015; Foto: phs

Zu den Kunden von Is’vision, das bereits seit 2003 den „Platz des Himmlischen Friedens“ videoüberwacht, gehören nicht nur die Ämter für Öffentliche Sicherheit, sondern auch Grenzbehörden oder Einrichtungen wie der Bahnhof von Ürümqi, der Hauptstadt von Xinjiang. Dort, so wirbt die Firma auf ihrer Homepage, sei Dank ihrer Technologie der Hauptschuldige eines Terroranschlags der „Turkestan Islamic Party” am letzten Tag der üppig medialisierten Besuchsreise Xi Jinpings im April 2014 identifiziert worden, bei der dieser das „Uigurische Autonome Gebiet” mit seinen 25.8 Mio. Einwohnern zur „Frontlinie der Terrorismusbekämpfung” erklärt hatte. Die Einrichtung der „Berufsbildungszentren”, also jener Internierungslager, in denen heute nach Schätzungen von Menschenrechtsorganisationen rund eine Millionen Angehörige v.a. moslemischer Minderheiten „umerzogen” werden, geht mittelbar auf diesen Anschlag zurück. Dasselbe gilt für die Verabschiedung der „Verordnung zur Beseitigung des Extremismus in der Autonomen Region Xinjiang”, die mittlerweile durch die geleakten „China Cables” im Wortlaut bekannt und deren düstere Konsequenzen durch tausende Dokumente aus lokalen Polizei-Institutionen bestätigt worden sind.

Emotionserkennung im Leistungssport; Quelle: emotibot.com

Sowohl für die Mitglieder von LGBTQ+ -Gruppen in China als auch für die muslimischen und buddhistischen Bevölkerungsgruppen in Xinjiang oder Tibet dürfte Spielberg’s Filmtitel Minority Report heute jedenfalls einen ganz anderen Klang haben als vor dem Amtsantritt von Xi Jinping. Dasselbe gilt zweifellos auch für Zwangsarbeiter aus den Minderheitengebieten, die an die Zulieferer internationaler Unternehmen von Adidas bis Zegna im chinesischen Kernland verkauft worden sind.

Emotionserkennung in einer Grundschulklasse; Quelle: ft.com

Beunruhigend ist auch, dass in China derzeit nicht nur fahrerlose Taxis an den Start gehen, sondern womöglich bald auch richterlose Gerichte, denen die bei weitem grösste Datenbank von digitalisierten Gerichtsurteilen der Welt zur Verfügung steht. Die auf der algorithmischen Auswertung solcher Daten und also auch auf dem „deep learning” aller Vorurteile basierenden Programme beginnen bereits aufgrund von Informationen zur Gesichts- und Körpersprachenerkennung verfahrensentscheidenden Input an die Justizbeamten zu liefern. Wem wächst – rein statistisch gesehen – in Ürümqi ein terroristischer Bart? Wer schlendert in Shanghai mit einem homosexuellen Blick den Bund entlang? Wie patriotisch war das Kinn bei der Fahnenhissungszeremonie in Kashgar in die Höhe gereckt, wie suizidal die Kopfbewegung eines Lagerinsassen? Nur noch wenig entgeht dem Projekt „Sharp Eyes“ des Ministeriums für Öffentliche Sicherheit.

Und im „Westen“?

Die von der EU geförderte iBorderCtrl-Technologie wurde an verschiedenen Grenzen in der EU getestet und nutzt künstliche Intelligenz zur Analyse von “micro-expressions”; Quelle: euractiv.com

Doch wer im Glashaus sitzt, sollte nicht mit Steinen werfen. Auch die EU hat in ihrem Projekt „iBorderCtrl“ seit 2018 allerlei Technologien entwickeln lassen, die Menschen im Buschwerk erspähen, Risikoprofile von Reisedokumenten erstellen und, natürlich, Gesichter erkennen. Das „Automatic Deception Detection System“ wurde z.B. darin trainiert, „Lügenmimiken“ bei der Beantwortung der von Avataren am Grenzübergang gestellten Fragen zu melden. Pilotsysteme wurden an Aussengrenzenposten in Ungarn, Griechenland und Lettland „erfolgreich getestet“, führten jedoch aufgrund von Fehlerraten von bis zu 20% zu nach wie vor hängigen Protestverfahren wegen Verletzung der europäischen Datenschutz-Grundverordnung.

In den USA wurde der Einsatz von Gesichtserkennungstechnologie in San Francisco im Mai 2019, in Portland im September 2020 grundsätzlich verboten – letzteres in Reaktion auf ihren Einsatz während der Black Lives Matter-Demonstrationen. Für Schlagzeilen sorgten auch die Nachrichten über Clearview AI, jene Firma, deren Datenbank von rund drei Milliarden aus sozialen Medien gekaperten Bildern mittlerweile von tausenden amerikanischen Strafverfolgungsbehörden genutzt wird. Die Firma verfügt damit über etwa siebenmal so viele Gesichtsdaten wie das FBI – das „Ende der Privatsphäre, wie wir sie kannten“ titelte die New York Times. Die Beziehungen des australischen Firmengründers (Cam-)Hoan Ton-that in die rechte Politszene der USA sind wohldokumentiert, der Einsatz der Datenbank in Kanada seit kurzem rechtlich untersagt. Als nun die Untersuchungsbehörden bei der Identifikation der Kapitol-Stürmer vom 6. Januar 2021 massenhaft Clearview-Daten verwendeten, freute sich nicht nur Ton-that – auch in China war die Häme gross. Wieder einmal hätten die USA gezeigt, dass sie „mit zweierlei Mass messen“, stichelte das „China Jugend-Netzwerk. Mit dem „Menschenrechtshut auf dem Kopf“ habe man chinesische Gesichtserkennungsfirmen auf die staatliche Überwachungsliste gesetzt, während Clearview sogar von US-amerikanischen Social-Media-Giganten wie Twitter, Facebook und Youtube kritisiert worden sei. In Krisenzeiten verlasse sich die „scheinheilige“ US-Justiz dann aber doch auf das vielgescholtene Gesichtserkennungs-Unternehmen!

Falsche Kontinuitäten

Dass „die” chinesische Gesellschaft im Gegensatz zur europäischen „Schuldkultur” durch „Schamkultur” charakterisiert sei, in der die Angst vor „Gesichtsverlust” (shī miànzi 失面子, diū liǎn 丢臉) ein besonders tief verankertes Phänomen darstelle, ist ein in- und ausserhalb Chinas wohlgepflegtes Klischee. Es hat meist mehr mit kulturellen Selbstabgrenzungen oder europäischen Projektionen als mit der Realität traditioneller Rechts- und Moralauffassungen in China zu tun. Auch die gelegentlich ventilierte Idee, wonach die Akzeptanz des sogenannten „Sozialpunktesystems” in China durch buddhistische Vorstellungen über die Anhäufung positiven und negativen „Karmas” geprägt sei, vermag in Bezug auf eine der säkularsten Gesellschaften der Welt kaum zu überzeugen. Stets genügt ein Blick in die demokratische Gesellschaft Taiwans oder auf die letzten Wahlergebnisse in Hong Kong vor Einzug des Sicherheitsgesetzes, um sich klarzumachen, dass „kulturalistische“ Argumente dieser Art nicht verfangen. Die Möglichkeit, eine stabile „Mentalität“ der Meidung von Gesichtsverlust entlang von Nationengrenzen oder Kulturräumen zu diagnostizieren, wird auch durch die experimentelle Psychologie nicht bestätigt.

Maske der Beijing-Oper; Quelle: everypixel.com

Zwar wurde die Rede von einer spezifisch chinesischen Angst vor dem „Gesichtsverlust“ von den chinesischen Reformern zu Beginn des 20. Jahrhunderts eifrig geführt, meistens jedoch unter Rückgriff auf englischsprachige Kolonialliteratur des 19. Jahrhunderts. Intellektuellen dieser Zeit galt der Reflex der Gesichtswahrung noch als Inbegriff der Rückständigkeit der traditionellen chinesischen Gesellschaft, so dass etwa Lin Yutang (1895–1976), ein zweimal für den Nobelpreis nominierter Schriftsteller, 1935 schrieb: „Erst wenn in den Ministerien das Gesicht verloren geht und Regierung mittels ‚Gesicht‘ durch ‚Regierung‘ durch das Recht abgelöst wird, dann werden wir eine wahre Republik haben.“ Wenn es auch schwerfällt, das kommunistische China als Rechtsstaat zu bezeichnen, so spielte nach 1949 das Verständnis von „Gesichtsverlust“ als Merkmal einer korrupten Beamtenmonarchie keine Rolle mehr.

Noch bis vor kurzem scherten sich auch die Bewohner des überwachungskapitalistischen Einparteienstaates im 21. Jahrhundert wenig um die neuen Spielarten des Gesichtsverlusts an neugierige Maschinen. Doch das ändert sich nun. In einer 2020 anonym durchgeführten Umfrage gaben bereits 60% der Befragten an, sie seien über den ausufernden Einsatz von Gesichtserkennungssystemen besorgt. Nicht weniger als 30% behaupteten sogar, ihre Gesichtsdaten seien bereits auf dem Schwarzmarkt verkauft worden. Am stärksten kritisiert wird Gesichtserkennung zur Erfassung des Kaufverhaltens in Einkaufszentren (42%), gefolgt von Aufmerksamkeitskontrolle bei Studierenden (28 %) und ihrer Verwendung bei der Vorbereitung von Schönheits-OPs, Persönlichkeitsprofilen und Gesundheitseinschätzungen (19%).

Fußgänger- und Fahrzeugerkennungssystem SenseVideo von SenseTime; Quelle: buzzfeednews.com

Sehr viel empfänglicher sind die Befragten für Einsatzgebiete im Bereich öffentliche Sicherheit und bei Verkehrsdelikten. Dieser Grundstimmung entspricht, dass in China im Corona-Jahr 2020 einerseits ohne viel Widerstand neue Verwendungsbereiche der Gesichtserkennung in der Lockdown-compliance etabliert wurden. Andererseits gab es auch viel Beifall für Internetclips von Personen, die sich den Überwachungskameras durch Tragen von Motorradhelmen zu entziehen versuchten.

Wachsendes Unbehagen, neue Allianzen

Auch im Fall von Professor Guo kam es zu Bewegungen. Rund ein Jahr nach der Einreichung seiner Klage wurde vom Volksgerichtshof Hangzhou am 20. November 2020 beschieden, dass der Zoo eine Schadensersatzzahlung zu leisten und die Löschung der Gesichtsdaten zu gewährleisten habe. Da sich der Urteilsspruch nur auf seinen eigenen Fall bezog, zog Professor Guo die Anzeige an eine höhere Instanz weiter. Parallel zu diesem unerwarteten Urteilsspruch hatten sich weitere Entwicklungen abgezeichnet, die v.a. durch den kommerziellen Missbrauch von Gesichtserkennungssystemen ausgelöst wurden. Hierzu gehörten z.B. die Verwendung von Gesichtsdaten durch Maklerfirmen zur Einschätzung des Kaufinteresses an Immobilien. Andere betrafen Marketingfirmen, die Gefühlsregungen potentieller Kunden beim Betrachten von Plakat- und Videowerbung analysierten. Diverse südchinesische Metropolen untersagten in der Folge die Sammlung von Gesichtsdaten durch Immobilienfirmen. Hangzhou, Professor Guos Heimatstadt, hat im Oktober letzten Jahres das Recht auf Verweigerung der Zurverfügungstellung biometrischer Daten zum Betreten von Wohnkomplexen bestätigt. Und Tianjin, die elftgrösste Stadt der Welt, hat am 1. Dezember 2020 jegliche privatwirtschaftliche Sammlung biometrischer Daten ohne Einwilligung der Erfassten verboten. Dass sich die auch in der ostchinesischen Hafenmetropole dem „Uighuren-Tracking“ ausgesetzten Zwangsarbeiter dort nun sicherer fühlen, darf gleichwohl bezweifelt werden.

Unbeeindruckt von der Kritik an den gut dokumentierten rassistischen Fehlleistungen biometrischer Erkennungssysteme verläuft ein epistemischer Bruch. Noch rasanter als im „Westen“ rückt er in China von der Einzigartigkeit individuellen Verhaltens ab und bewegt sich immer tiefer in massendatengestützte Wahrscheinlichkeitsmodelle. Durch sie werden Räume eröffnet, in denen der Algorithmus verspricht, letztlich mehr über das Individuum, dessen Verhalten, Emotionen und Vorlieben zu wissen als das Individuum selbst. Dass das Unbehagen an der physischen Identifizierbarkeit des Einzelnen vor diesem Hintergrund auch in der Han-chinesischen Mehrheit in China wächst, ist unübersehbar. Ebenso unübersehbar wie die noch klar unterscheidbaren Ost-West-Asymmetrien der Akteure: In China ist es vorrangig der Datenhunger des Staates, der Angst und Bange werden lässt; im „Westen“ jener der Technologiefirmen und Marketingabteilungen. Besorgte und Geschädigte aller Länder und Systeme wären gut beraten, hier kluge Allianzen zu schmieden!