Pressemitteilung: Forschung für eine funktionierende Demokratie

6. Juli 2021

Forschung für eine funktionierende Demokratie

Forum Privatheit wird Teil der vom BMBF initiierten Plattform Privatheit

 

"Die Digitalisierung verändert die Lebensweisen, Strukturen und Wertvorstellungen unserer Gesellschaft in umfassender Weise." Mit diesen Worten eröffnete "Forum Privatheit"-Sprecher und Rechtswissenschaftler Prof. Dr. Alexander Roßnagel das Online-Symposium "Demokratie, Selbstbestimmung und KI: Wie passt das zusammen?". Inwiefern diese Veränderungen in Einklang mit den Zielen und Werten von Demokratie gebracht werden können, erforscht das "Forum Privatheit" seit nunmehr über sieben Jahren und bereitet die Ergebnisse für Zivilgesellschaft, Politik, Wissenschaft und Wirtschaft auf.

Besondere Förderung der Themen Privatheit, Selbstbestimmung und Datenschutz

Seit dem 1. April 2021 fördert das Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des neuen Forschungsrahmenprogramms der Bundesregierung "Digital. Sicher. Souverän." das "Forum Privatheit" als Teil der neu initiierten Plattform Privatheit. "Damit würdigt das BMBF sowohl die bisherige Forschungsleistung als auch die zunehmende gesellschaftliche Relevanz der Fragen", freut sich Dr. Michael Friedewald, Koordinator des "Forum Privatheit" und Innovationsforscher am Fraunhofer ISI. Die Förderung der Forschung zu den Themen Privatheit, Selbstbestimmung und Datenschutz ist ein zentrales Anliegen des BMBF, da diese Themen wesentlich für eine funktionierende Demokratie sind. Neben der Förderung von technologischen Innovationsaktivitäten sollen rechts-, sozial-und geisteswissenschaftliche Forschung sowie der gesellschaftliche Dialog umfassend gefördert werden.

Wie können wir die Öffentlichkeit stärker einbeziehen?

Auf dem Online-Symposium "Demokratie, Selbstbestimmung und KI: Wie passt das zusammen? wurden zukünftige Forschungsschwerpunkte vorgestellt. Ausgangspunkt aller Überlegungen war, dass technologische Entwicklungen wie Künstliche Intelligenz das gesellschaftliche Miteinander massiv verändern. "Soziale Prozesse werden zunehmend durch lernende Algorithmen geprägt", konstatierte Dr. Carsten Ochs, Soziologe von der Universität Kassel. „Für die Entwicklung digitaler Demokratien spielt dabei die Öffentlichkeit eine ganz zentrale Rolle – und das gleich in zweifacher Hinsicht: Auf der einen Seite wird auch der öffentliche Diskurs immer stärker algorithmisch organisiert. Wer welche Aussagen von wem zu sehen und zu hören bekommt, welche Beiträge Sichtbarkeit erlangen, all das wird immer öfter auch von sich verändernden Algorithmen entschieden, deren Funktionsweise nur noch für wenige, wenn überhaupt, nachvollziehbar ist. Auf der anderen Seite stellt sich aber insbesondere für die digitale Neuerfindung von Demokratie die Frage, wie die Öffentlichkeit an der Entwicklung Künstlicher Intelligenz-Systeme beteiligt werden kann. Dazu ist es sicherlich erforderlich, die Kompetenzen und das Bewusstsein der Verbraucherinnen zu schärfen, ausreichen wird das aber nicht. Wir müssen über neue Formen des Einbezugs der Öffentlichkeit in die Entwicklungsprozesse nachdenken, denn in diesen wird über die Gestaltung der digitalen Gesellschaft entschieden. Mit unserer Forschung wollen wir einen Beitrag zur demokratischen Ausgestaltung solcher Prozesse leisten.“

Automatisierte Gesichtserkennung braucht funktionierende Schutzmechanismen

Die Herausforderungen automatisierter Gesichtserkennung stellte der Jurist Prof. Dr. Gerrit Hornung, ebenfalls Universität Kassel, vor. Denn automatisierte Gesichtserkennung, wie sie beispielsweise vom Diensteanbieter Clearview AI angeboten wird, stellt nicht nur die deutsche und die europäische, sondern die KI-Regulierung weltweit vor große Aufgaben. So kann Clearview AI Plattformen wie beispielsweise Facebook, Twitter, YouTube und Instagram nach öffentlich abrufbaren Gesichtsbildern absuchen und diese mit anderen Bildern abgleichen. Dies ermöglicht einen sekundenschnellen Abgleich zwischen einem 'frisch' aufgenommenem Bild aus dem öffentlichen Raum, beispielsweise einer Straßenbahn, und sämtlichen Daten, die von der fotografierten Person im Internet hochgeladen wurden – wie privat diese auch immer sein mögen. Von der betroffenen Person ist dies nicht nachvollziehbar. "Hier müssen Schutzmechanismen entwickelt werden, um die bestehenden grundrechtlichen Schutzpflichten auch über nationale Grenzen hinaus wirksam werden zu lassen", fordert Hornung. Zwar gebe es durch die DSGVO einen Grundrechtsschutz, der in bestimmten Fällen gerade auch Unternehmen erfasst, die ihren Sitz außerhalb Europas haben. Die konkrete Reichweite gerade für neue Technologien und Anwendungen wie die Sammlung biometrischer Gesichtsbilder sei aber ungeklärt und umstritten. "Zudem sind innovative Technologien der Künstlichen Intelligenz durch die DSGVO nur unzureichend abgedeckt", so Hornung.

Wie können wir die Verhältnismäßigkeit von Überwachungsmaßnahmen bestimmen?

Dr. Felix Bieker, Jurist am ULD, forscht zum Thema "Überwachungsgesamtrechnung". Bei diesem von "Forum Privatheit"-Sprecher Alexander Roßnagel auf Basis der Rechtsprechung des Bundesverfassungsgerichts entwickelten Konzepts geht es darum, die Verhältnismäßigkeit des Gesamtausmaßes der Überwachung, der die Bürger:innen unterliegen, zu bestimmen. Dies ist jedoch aufgrund der Vielzahl von Überwachungsgesetzen und der Legitimationswirkung, die von einer solchen Analyse ausgeht, problematisch. Denn, so führte Bieker aus: "Wenn eine Überwachungsgesellschaft nicht mit dem Recht auf informationelle Selbstbestimmung vereinbar ist, dann darf diese rote Linie nicht überschritten werden. Weder das Bundesverfassungsgericht noch der Gesetzgeber werden feststellen wollen, dass unsere Rechtsordnung aufgrund des Ausmaßes der Überwachung das Grundgesetz verletzt." Daher könnte eine solche Analyse dazu verleiten, den aktuellen Stand der Überwachung stets noch als verfassungsmäßig einzuordnen. Untersuchen wird Bieker unter anderem die Fragen, ob und wie die Legitimationswirkung der Analyse vermieden werden kann, etwa indem sie von zivilgesellschaftlichen Gruppen oder Bewegungen vorgenommen wird.

Können wir digitale Geschäftsmodelle entwickeln, die fair sind?

Prof. Dr. Thomas Hess und Dr. Rahild Neuburger von der LMU München werden untersuchen, inwieweit faire digitale Geschäftsmodelle machbar sind. Bisher gibt es ein Machtungleichgewicht zwischen datenverarbeitenden Unternehmen und Nutzenden. "Wir wollen wissen, wie Geschäftsmodelle gestaltet werden können, damit sie zu einem fairen Ausgleich konfligierender Interessen beitragen", erläutert Hess. "Denn einerseits greifen digitale Dienste tief in das Privatleben von Verbraucherinnen und Verbrauchern ein. Andererseits stehen Diensteanbieter unter einem zunehmenden Wettbewerbs- und Innovationsdruck. Unternehmen müssen rentabel sein, sonst haben sie keine Existenzberechtigung." Dr. Rahild Neuburger wird die Frage untersuchen, inwieweit Datenschutz als Wettbewerbsfaktor gestaltet werden kann. Daten stellten für Unternehmen eine hohen ökonomischen Wert dar. Andererseits hätten Privatpersonen ein Recht auf den Schutz ihrer personenbezogenen Daten. "Wir haben hier ein Spannungsfeld zwischen Daten-Monetarisierung und Datenschutz", konstatiert Neuburger. "Im Mittelpunkt unseres Forschungsprojekts steht daher die Frage, ob sich Datenschutz so gestalten lässt, dass er zum Kaufargument werden kann. Dabei werden wir auch untersuchen, welche Rolle das Vertrauen in Technologie spielt. "Denn oftmals geht es weniger darum, wie der Datenschutz tatsächlich aussieht, sondern wie er von den Nutzenden wahrgenommen wird."

Wie können wir die Privatheit von Kindern und älteren Menschen besser schützen?

Wie Datenschutz für besonders schutzbedürftige Gruppen wie Kinder oder ältere Menschen aussehen muss, untersuchen die Medienethikerin Dr. Ingrid Stapf vom Internationalen Zentrum für Ethik in den Wissenschaften und die Sozialpsychologin Dr. Judith Meinert von der Universität Duisburg-Essen. Aufgrund der Coronapandemie haben bestimmte Dienste wie Zoom und Tiktok starken Zulauf erfahren. "Oft sind sich die Kinder und Jugendlichen jedoch nicht bewusst, was mit ihren Daten passiere und welche Tragweite die Einwilligung in die Nutzung ihrer Daten hat", so Stapf. In einer Demokratie sollte der besondere Unterstützungsbedarf vulnerabler Gruppen mitbedacht werden, da sonst auch demokratische Beteiligung gefährdet sein kann. Meinert machte darauf aufmerksam, dass "bestehende Privatheitskonzepte sich in der Regel auf mündige Bürgerinnen und Bürger beziehen und nicht auf vulnerable Gruppen wie Kinder". So wird das Forschungsvorhaben untersuchen, wie Konzepte verbessert und erweitert werden und wie Befähigungsmaßnahmen aussehen müssen, um vor allem Kinder und Jugendliche besser zu schützen, aber auch Menschen in der gesamten Lebensspanne kompetenter im Umgang mit KI-Anwendungen zu machen.

Erste Antworten auf diese Fragen wird es auf der nächsten Jahreskonferenz des "Forum Privatheit" am 18. und 19. November 2021 geben. Thema: Auswirkungen der Künstlichen Intelligenz auf Demokratie und Privatheit.

Das "Forum Privatheit" ist ein zentrales Projekt der vom Bundesministerium für Bildung und Forschung (BMBF) initiierten Plattform Privatheit. Diese bildet die Basis für die wissenschaftliche Analyse aktueller Fragestellungen zu Datenschutz und Privatheit sowie für die Entwicklung zielgenauer Lösungen. Das "Forum Privatheit" macht als interdisziplinäres Netzwerk aus verschiedenen wissenschaftlichen Instituten und Organisationen die Forschung der Partner sichtbar, um Privatheit und Selbstbestimmung in der digitalen Welt zu stärken. Ziel ist es, allen Bürgerinnen und Bürgern einen reflektierten und selbstbestimmten Umgang mit ihren Daten, technischen Geräten und digitalen Anwendungen zu ermöglichen. Das "Forum Privatheit" bereitet aktuelle Forschungsergebnisse für Zivilgesellschaft, Politik, Wissenschaft und Wirtschaft auf und berät deren Akteure zu ethischen, rechtlichen und sozialen Aspekten von Privatheit, Datenschutz und informationeller Selbstbestimmung. Gefördert wird das "Forum Privatheit" im Rahmen des Forschungsrahmenprogramms der Bundesregierung „Digital. Sicher. Souverän.“. Es wird vom Fraunhofer-Institut für System- und Innovationsforschung sowie vom Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung an der Universität Kassel koordiniert.

 

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Fachgebiet Öffentliches Recht
Universität Kassel
a.roßnagel@uni-kassel.de
Pressefoto Alexander Roßnagel

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
michael.friedewald@isi-fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
+49 (0) 721 / 6809-678
barbara.ferrarese@isi.fraunhofer.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/
Twitter: @ForumPrivatheit



Pressemitteilung
Pressemitteilung