Wem gehört dein Gesicht?
Was automatische Gesichtserkennung für unseren Rechtsstaat bedeutet
Automatische Gesichtserkennung breitet sich rasant aus. Doch Regeln und die öffentliche Debatte hinken der Technologieentwicklung weit hinterher – mit grossen Risiken für unseren Rechtsstaat und unsere Demokratie. Deshalb unterstützen wir die Petition «Gesichtserkennung stoppen».
Egal ob man sich im Supermarkt, dem Bahnhof, einem Park, im Bus oder in einem Stadion aufhält: An all diesen und noch vielen anderen Orten gibt es seit einiger Zeit Videoüberwachung, sei es auf privater Basis, beispielsweise zum Schutz eines Geschäftes, oder aus Überlegungen der öffentlichen Sicherheit. Wenn wir uns nicht gerade selbst für den neuesten Post auf TikTok oder Instagram filmen, stehen die Chancen also gut, dass wir trotzdem von Überwachungskameras oder anderen Personen gefilmt werden, ohne darauf Einfluss nehmen zu können.
Das könnte an sich schon Grund zur Sorge sein. Doch was diesen Umstand wirklich besorgniserregend macht, ist die Tatsache, dass sich der Einsatz automatischer Gesichtserkennung seit Jahren stetig ausweitet. Auch wenn hauptsächlich umstrittene Firmen wie Clearview AI und ausländische Beispiele wie das Social Scoring in China, aus New York, London oder Berlin bekannt sind: Auch in der Schweiz wird der Einsatz insbesondere von Strafverfolgungsbehörden geprüft oder bereits durchgeführt, wie SRF, die Republik oder AlgorithmWatch Schweiz aufzeigen.
Der nächste logische Schritt
Automatische Gesichtserkennung bedeutet, dass automatisch auf Fotos und in Videos versucht wird, Gesichter nicht nur als Gesichter zu erkennen, sondern auch die entsprechende Person anhand eindeutiger, aus dem Videomaterial extrahierter Metadaten zu identifizieren. Anders als bei einem Fingerabdruck kann man damit eine Person aus viel grösserer Entfernung und möglicherweise unbemerkt erfassen. Und die dabei gewonnen Metadaten werden möglicherweise viel länger gespeichert und eingesetzt als das Videomaterial selbst.
Gesichtserkennung ist der logische nächste Schritt in der Videoüberwachung und ein aktives Spielfeld für Behörden und Unternehmen, von etablierten Industriegiganten hin zu Start-ups. Zum Einsatz kommen dabei Systeme mit künstlicher Intelligenz, welche dank maschinellen Lernens – dem Auswerten riesiger Datenberge – in der Lage sein sollen, Gesichter und damit Personen effizient in Videos wiederzuerkennen.
Das bietet vielseitige Einsatzmöglichkeiten, vor allem wenn man sich vor Augen führt, dass einmal erfasste Metadaten einer Person in ganz unterschiedlichen Kontexten wiederverwendet werden können. Vor allem in der Strafverfolgung erhofft man sich so eine bessere Auswertung und Echtzeitverfolgung von Zielpersonen.
Nutzen und Risiken sind sehr einseitig verteilt
Die Problematik automatischer Gesichtserkennung zeigt sich vor allem anhand der folgenden beiden Aspekte.
Erstens sind der Nutzen von automatischer Gesichtserkennung sowie deren Risiken jeweils sehr einseitig verteilt. Während vor allem Sicherheits- und Strafverfolgungsbehörden durchaus nachvollziehbar der Meinung sind, dass sie davon profitieren, nützt der Einsatz der Technologie dem einzelnen Individuum nur sehr wenig.
Im Gegenteil: Zu wissen, dass man quasi überall in der Öffentlichkeit automatisch und ohne Vorwarnung erfasst, identifiziert und basierend darauf verfolgt werden könnte, ist der ultimative chilling effect. Das bedeutet, dass alleine das Wissen, potentiell identifiziert und überwacht zu werden, dazu führt, eigentlich garantierte Freiheitsrechte nicht mehr wahrzunehmen, also beispielsweise an einer öffentlichen Kundgebung nicht teilzunehmen.
Damit wirkt sich die Anwendung der automatischen Gesichtserkennung im öffentlichen Raum negativ auf wichtige Grundrechte wie die Versammlungs- und Meinungsfreiheit aus – die für eine Demokratie absolut zentral sind.
Technologien sollten nicht einfach den Staat ermächtigen, sondern das Individuum unterstützen und schützen.
Für einen Rechtsstaat problematisch
Zweitens ist Gesichtserkennung an sich risikobehaftet. Selbst wenn man den Einsatz von automatischer Gesichtserkennung als legitim betrachtet, so muss man sich der Probleme und Schwächen der verwendeten Systeme im Klaren sein. Es gibt teils grosse Fragezeichen, wie die Systeme trainiert werden. Wo kommen die ganzen Gesichtsdaten her, und was für Qualitätskriterien gelten für diese? Wie wird insbesondere bias in den Trainingsdaten entgegengewirkt? Durch diese Verzerrungen können diskriminierende Entscheide entstehen.
Eine grosse Frage ist auch, wie genau beziehungsweise ungenau die Systeme sind und sein dürfen. Sei es aufgrund des Trainings, sei es schlicht aufgrund von Programmierfehlern: Fehler in der Identifikation werden wohl immer wieder vorkommen. Wenn nun aber Massnahmen von grosser Tragweite für das Individuum auf solchen fehleranfälligen Grundlagen basieren, ist dies für einen Rechtsstaat höchst problematisch.
Regeln und Debatte hinken der Technologieentwicklung hinterher
Zusammengefasst besteht das zugrundeliegende Problem darin, dass die Befugnisse und Regeln für Videoüberwachung sowie die öffentliche Debatte darüber nicht mit der technologischen Entwicklung Schritt gehalten haben. Wurde vor einigen Jahren beschlossen, vermehrt auf Videoüberwachung zu setzen, so geschah dies unter bestimmten Annahmen über die Verwendung dieser Bilder sowie die zugehörigen technischen Möglichkeiten. Es gibt ganz offensichtlich unterschiedliche Auffassungen über die Rechtmässigkeit von Gesichtserkennung, weshalb eine Präzisierung oder Anpassung der Regeln notwendig ist. Die fortlaufende technische Entwicklung macht heute sowie auch in Zukunft Diskussionen darüber notwendig.
Monika Simmler, Assistenzprofessorin für Strafrecht, Strafprozessrecht und Kriminologie an der Uni St. Gallen, hat dies in einem Interview so erläutert: «In der Strafverfolgung ist es nicht so, dass man alles machen darf, was nicht explizit verboten ist. Es ist genau umgekehrt, der Staat darf nur das machen, was ihm das Gesetz erlaubt. Gesichtserkennung ist anders als Fingerabdrücke oder DNA-Analysen nicht vorgesehen in der Strafprozessordnung und ist darum automatisch verboten.»
Was nicht passieren darf, ist eine stetige, unbemerkte Ausweitung von Kompetenzen aufgrund fehlender, unklarer oder veralteter Regeln sowie neuer technischer Möglichkeiten, was den Einsatz automatischer Gesichtserkennung anbelangt.
Forderungen nach einem Verbot der Gesichtserkennung
Es verwundert deshalb nicht, dass sich in den USA aber auch Europa seit einiger Zeit Widerstand formt. Neben den aktuellen europäischen Bemühungen zur klaren Regulierung von KI-Systemen (Gesichtserkennung mit eingeschlossen), gibt es diverse Forderungen nach einem Verbot der Gesichtserkennung.
Ein Verbot sollte insbesondere bei Technologien eigentlich ultima ratio sein.
Doch im Hinblick auf den Einsatz von Technologien zur Überwachung und Grundrechtseinschränkung zeigt die jüngere Geschichte leider eindrücklich auf, dass selbst die austarierteste Regulierung immer noch missbraucht werden kann.
Wir müssen als Gesellschaft zuerst diskutieren: Was kann diese Technologie wirklich und was für Konsequenzen könnte sie haben? Ohne eine solche Debatte sollte ein Einsatz ein No-Go sein. Wie wichtig eine solche gesellschaftliche Debatte ist, hat auch Jonathan Zittrain, renommierter Technologieforscher, in einem eindrücklichen Twitter-Thread festgehalten.
Failing to deal with this company’s behavior when it started is the biggest public policy failure in the digital space in a generation. Reining it in is that much tougher now that it’s well-funded and so frequently used by government clients. https://t.co/haBHR5Pp25 @drewharwell
— Jonathan Zittrain (@zittrain) February 17, 2022
Die fehlende politische Debatte über die Nutzung von Technologien kommt dem «grössten Public Policy Failure»gleich, schrieb Zittrain.
Schweizer Petition «Gesichtserkennung stoppen»
Deshalb unterstützen wir die Petition «Gesichtserkennung stoppen» zum Verbot von automatischer Gesichtserkennung im öffentlichen Raum von Schweizer Städten. Die Petition kann hier unterzeichnet werden und setzt ein klares Zeichen, dass wir insbesondere im öffentlichen Raum für unseren Rechtsstaat und unsere Demokratie gewisse Freiräume beibehalten müssen, die nicht der technologisierten Überwachung zum Opfer fallen dürfen. Unterzeichne auch du noch heute die Petition von AlgorithmWatch Schweiz, Amnesty International und der Digitalen Gesellschaft.
Hast du Lust, an diesem und weiteren Digitalthemen mitzuarbeiten?
Wie wir in unserer Grundsatzposition dargelegt haben, sind wir Technologieoptimist*innen, aber nicht naiv. Der digitale Wandel erfasst heute alle Lebensbereiche und stellt eine grosse Herausforderung für liberale Demokratien und insbesondere für individuelle Freiheitsrechte dar. Wenn du uns dabei helfen möchtest, diesen Wandel aktiv zu gestalten, dann komm jetzt in unser Themen-Team! Schreib dich hier ein:
Verfasser: Nicolas Zahn, Co-Leitung Team Digitalisierung