The Ethics of State Mass Surveillance

Workshop zu ethischen Grundlagen der staatlichen Massenüberwachung, 11.-12. April 2019, Karlsruhe

Am 11. und 12. April veranstaltete das Institut für Philosophie am Karlsruher Institut für Technologie (KIT) einen von der Fritz-Thyssen-Stiftung geförderten Workshop zum Thema „The Ethics of State Mass Surveillance”. Die englischsprachige Veranstaltung bot viele Einblicke in philosophische, sozialwissenschaftliche und technische Aspekte von Überwachung und ermöglichte einen intensiven interdisziplinären Austausch. Allen neun Beiträgen gemeinsam war die Frage, ob und warum es gesellschaftlich wertvoll ist, wenn Privatheit gewährleistet und staatliche Überwachung möglichst eingeschränkt wird; ob es sinnvoll und möglich ist, eine Balance zwischen Freiheit/Privatheit und Sicherheit/Überwachung zu erreichen und wie dies geschehen kann.

Zur Einführung ging Kevin Macnish (University of Twente, Niederlande) der Frage nach, ob durch staatliche Massenüberwachung überhaupt die Privatheit (privacy) berührt werde. Er vertrat die These, dass die Massenüberwachung meist nicht die Privatheit beeinträchtige, weil der Zugriff (access) zu Daten zwar das Potenzial besitze, persönliche Informationen zu offenbaren, dies aber in der Regel nicht erfolge oder, falls doch, nicht durch menschliche Intervention. Diese reduktionistische Sichtweise führte zu regen Diskussionen über Definition, Gehalt und Grenzen von Privatheit und der Frage, ob andere Begrifflichkeiten die problematischen Aspekte von Überwachung besser bezeichnen.

Ingmar Persson (Göteborg University, Schweden) stellte unter dem Titel “The Sweet Dream of God-like Control” in einem Gedankenexperiment eine allmächtige “God Machine” vor, die die Gedanken aller Menschen lesen könne und immer dann interveniert, wenn geplante menschliche Handlungen Schaden hervorrufen würden. Er ging der Frage nach, wie eine solche paternalistische Überwachung zu bewerten sei und welche Schlußfolgerung man für reale staatliche Überwachungsmaßnahmen ziehen könne.

Sehr viel konkreter war der Vortrag von Frej K. Thomsen (Dänisches Institut für Menschenrechte) mit dem Titel “The ethics of police body-worn cameras”. Er stellte dabei die beabsichtigten Effekte (Transparenz, Beweissicherung, Reduzierung von Gewalttätigkeit) den möglichen Einschränkungen für die Privatheit von Polizisten, Opfern und Unbeteiligten gegenüber und kam zu dem Ergebnis, dass sich durch Bodycams bei der Polizei durchaus positive Effekte erzielen lassen, dass es aber nur unter genauer Einhaltung von sorgfältig formulierten Governance Regeln möglich sei, Risiken zu verhindern.

Eine rechtliche Betrachtung der vorausschauenden Polizeiarbeit (predictive policing) konnte die Juristin und Kriminologin Nora Ní Loideain (Universität Cambridge, UK) geben und betonte die Wichtigkeit von Vertrauen der Bürger in solche Systeme. Denn die Öffentlichkeit hat keine Möglichkeit Einblicke in solche Systeme zu bekommen. Vorausschauende Polizeiarbeit sei nicht frei von menschlichen Aspekten, da „jede Polizeistation ihre eigene Kultur hat” und entsprechend unterschiedlich werden solche Systeme eingesetzt. Sie beendete ihren Vortrag mit der These, dass für einen effizienten und legalen Einsatz von vorausschauenden Polizeiarbeit nicht nur Juristen, sondern viele weitere Disziplinen eingebunden werden müssen.

Zu Beginn des zweiten Tages erörterte Peter Königs (Karlsruhe Institute of Technology) unter dem Titel “How to Think About State Mass Surveillance” ob die neuen, “smarten” Überwachungstechniken Privatheit und/oder andere Werte gefährden. Er kam dabei zu dem Schluss, dass Privatheit mit vielen weiteren Werten, wie z.B. Intimität, Autonomie und die Selbstentwicklung eines Individuums, verbunden ist. Privatheit habe für die meisten diese weiteren Werte ein vor allem einen instrumentellen Charakter. In der Diskussion wurde unter anderem thematisiert, ob die Diskussion über verschiedene  Werte auseiche oder ob Machtverhältnisse für den Schutz der verschiedenen Werte nicht sehr viel wichtiger sei.

Auf die Machtfrage kam auch Matthew Hall (Royal Holloway, University of London) in seinem Vortrag “Escaping the balance between security and liberty. A radical republican perspective” zu sprechen. Er erläuterte zunächst eine ganze Reihe von Faktoren, die in der Aushandlung des Verhältnis zwischen Freiheiten (Privatheit) und Sicherheit zur Einschränkung ersterer beitragen, forderte dann aber aus einer republikanischen Perspektive, dass zunächst und mit Vorrang die Frage der politischen Erwünschtheit und der verschiedenen politischen und wirtschaftlichen Interessen geklärt werden muss.

Scott Robins (Delft Universität, Niederlande) erläuterte unter dem Titel “Bulk Data Collection, Machine Learning, and Ethics” die Schwierigkeiten im Bereich von „Big Data” und KI. Demnach ist schon die Datenerhebung problematisch, da diese sowohl aus heterogenen Quellen in Behörden, der Industrie und von Drittanbietern stammen. Diese Daten müssen händisch benannt und erklärt werden (labeling), damit Algorithmen mit diesen arbeiten können. Doch dieses Labeling durch Menschen ist nicht frei von menschlichen Annahmen und Vorurteilen (bias). Dadurch könnten z.B. Minderheiten benachteiligt und in  ihrer Privatheit beschränkt werden. Solche Systeme sollten aber in der Lage sein, Situationen korrekt, ohne Wertung zu beschreiben. Entscheidungen sollte letztlich  stets ein Mensch treffen. So kann beispielsweise ein System nicht entscheiden, ob von einem Kind mit einer Spielzeugpistole in der Hand eine Gefahr ausgeht. Eine ähnliche Waffe in der Hand eines maskierten Erwachsenen stellt hingegen eher eine Gefahr dar. Hier muss die Technik menschliche “Überwacher” aufmerksam machen auf eine potenzielle Gefahr lediglich hinweisen statt ggf. Aktionen mit fatalen Ergebnissen zu initiieren.

Erik Krempel (Fraunhofer IOSB, Karlsruhe) zeigte eindrucksvoll die Möglichkeiten als auch die Grenzen von „smarter” Videoüberwachung anhand vieler Beispiele (“Smart Video Surveillance: Technical Possibilities and Limitations”). „Smarte” Videoüberwachung sei nicht so smart, wie man gkaube, so Krempel. Die Zahl der Falsch-Positiven sei in der Regel noch immer viel zu hoch. Videoüberwachungssysteme sind meist in einer ganz speziellen Aufgabe sehr gut. So können diese etwa sehr effektiv erkennen, wenn eine Person einen bestimmten Bereich in einem Raum betritt. Andere Situationen, wie beispielsweise Taschendiebstahl seien hingegen vermutlich nie sicher automatisch zu erkennen, da dies selbst für den Menschen schwer zu entdecken ist. Er stellte heraus, dass es nicht die eine Videoüberwachungssysteme für alle Aufgaben  geben kann. Vielmehr seien die Systeme getrennt voneinander zu betrachten, um z.B. ethische Probleme zu identifizieren. Beispielhaft zeigte er ein System eines autonomen Fahrzeugs zur Identifizierung von Fahrzeugen und Menschen. Dieses habe ein einzelner Mensch entwickelt, der so (zu) großen Einfluss darauf habe, wie das System arbeitet. Er stellte aber Lösungsansätze für privatheitsfreundliche Videoüberwachung dar, bei denen beispielsweise bestimmte Personengruppen in einer Videoüberwachung systematisch ausgeblendet werden.  So können beispielsweise Mitarbeiter von Firmen auf Videoüberwachung komplett ausgeblendet werden.

In der abschließenden Zusammenfassung bestätigte sich, dass die Untersuchung der Herausforderungen, denen sich Privatheit in modernen Gesellschaften gegenübersieht, die Kooperation unterschiedlicher Disziplinen erfordert. Denn nur indem verschiedene Blickwinkel auf das Thema reflektiert werden, kann der Versuch der Erarbeitung einer allgemeingültigen Definition aber auch nach Lösungsmöglichkeiten gewagt werden.

Frank Ebbers
Murat Karaboga
Michael Friedewald