Jahreskonferenz
Forum Privatheit 2021: Auswirkungen der Künstlichen Intelligenz auf Demokratie & Privatheit

Interdisziplinäre Konferenz am 18. und 19. Nov. 2021

Die Veranstaltung in meinen Kalender eintragen

Sie können sich bereits zur Konferenz anmelden

Die digitale Transformation von Gesellschaften weltweit hat in den letzten Jahren nicht nur weiter an Dynamik gewonnen, sondern auch immer deutlicher spürbar globale Wirkungs- und Problemzusammenhänge ausgebildet. Heute sind es vor allem allgegenwärtige Systeme der Künstlichen Intelligenz (KI), die im Zentrum des wissenschaftlichen, politischen, ökonomischen, normativen und regulatorischen Interesses stehen. Von besonderer Bedeutung sind hier algorithmische Datenauswertungen zur gesellschaftlichen Steuerung, die eine Bedeutung für die politische Entscheidungsfindung und die Strukturierung öffentlicher Kommunikation haben und so die Lebenswirklichkeit der Bürgerinnen und Bürger mitgestalten.

Während Unternehmen und Politik hohe Erwartungen an die Möglichkeiten der ökonomischen Verwertung und administrativen Nutzung von KI-Systemen haben, ist es auf der nationalstaatlichen Regulierungsebene nach wie vor schwer, die damit einhergehenden Herausforderungen in den Griff zu bekommen. Unter dem Eindruck einer „überwachungskapitalistischen“ Implementierung von KI-Systemen einerseits und „überwachungsstaatlichen“ Systemen andererseits steht Privatheit als Grundwert der demokratischen Gesellschaft einmal mehr vor einer Bewährungsprobe.

Die neuen Formen der Datafizierung ändern nicht nur die zum Schutz von Privatheit erforderlichen Konzepte, sondern stellen auch das Verständnis und den Stellenwert von Privatheit selbst in Frage. Bislang wurde der Wert des Privaten meist so begründet, dass Privatheit den Einzelnen vor illegitimen Beobachtungen und Fremdbestimmung schützen soll und dadurch eine Grundlage für individuelle Autonomie, Selbstverwirklichung sowie freie Meinungs- und Willensbildung darstellt. Negative Einflüsse werden aktuell insbesondere an überwachend oder „manipulativ“ wirkenden Technologien festgemacht. Verwiesen sei an dieser Stelle auf Schlagworte wie „Gesichtserkennung“, „intelligente Videoüberwachung“, „Big Nudging“, „Micro Targeting“, “Predictive Policing”, etc. Insbesondere die anlasslose Massenüberwachung stützt sich auf Verfahren der künstlichen Intelligenz und ist ihrerseits mit demokratiegefährdenden Tendenzen verbunden.

Auch die Anwendung computergenerierter probabilistischer Einschätzungen und Prognosen auf Gruppen und einzelne Personen, in der Literatur oft als algorithmic decision making (ADM) bezeichnet, kann als Privatheitsproblem verstanden werden. Brisanz erhält dieses dadurch, dass die zugrundeliegenden Verfahren mitunter jenseits etablierter Schutzkonzepte operieren, weil statistische Verfahren ggf. nicht mit „personenbezogener Daten“ im engeren Sinne arbeiten. Künstliche Intelligenz ermöglicht demnach nicht nur algorithmengestützte Entscheidungen, die zur Steuerung und Organisation sozialer Systeme verwendet werden, sondern auch die Extraktion „emergenter“, privater Informationen aus „unverdächtigen“ Datensätzen. In diesem Zusammenhang werden etwa aus Surfgewohnheiten einzelner Individuen auf probabilistische Weise private Informationen gewonnen, welche in der Folge dann zur Anpassung von personalisierter Werbung oder Newsfeeds eingesetzt werden können. Zudem wird KI auch zur Entwicklung von Bots genutzt, damit diese computergenerierten virtuellen Gesprächspartner möglichst menschenähnlich auftreten. Während dies im Falle der Beantwortung einfacher Kundenfragen noch sinnvoll erscheint, ermöglicht dieselbe Technologie auch die großflächige Meinungsmanipulation mittels des Einsatzes von Bot-Armeen.

Alle diese Technologien können zu einer Gefahr für demokratische Werte werden, wenn etwa Filterblasen zur übermäßigen Verbreitung von Falschmeldungen sowie Radikalisierungstendenzen im öffentlichen Diskurs beitragen. Illegitime Informationsbestände, die jedoch eine besonders hohe Popularität unter den Nutzenden sozialer Netzwerke genießen, entfalten häufig eine stärkere Wirkung als Richtigstellungen oder differenzierte und ausgewogene Informationsbestände.

Solche Praktiken adressieren in der Regel alle Bevölkerungsgruppen. Es muss aber berücksichtigt werden, dass die Folgen für die Selbstbestimmung aufgrund unterschiedlicher individueller Voraussetzungen für unterschiedliche gesellschaftliche Gruppen verschieden sein können. So ist davon auszugehen, dass es sich etwa bei Kindern und Jugendlichen oder bei älteren Personen um Gruppen handelt, die gegenüber ausforschenden und verhaltenssteuernden Technologien besonders verletzlich sind, da sie auf anderen Kompetenzniveaus agieren, als Gruppen mit hoher „digital literacy.“ Die Fähigkeiten, Kenntnisse oder Mittel, die diesen Gruppen zum wirksamen Schutz ihrer informationellen Selbstbestimmung zu Verfügung stehen, müssen daher anders bewertet, gefördert und kollektiv abgestützt werden als im Falle der übrigen  Gesellschaftsmitglieder. Darüber hinaus ist auch zu berücksichtigen, dass sich Menschen und ihr Umfeld über ihre Lebensspanne erheblich ändern und damit auch die Aussagekraft der über sie gesammelten Daten.


Keynote-SprecherInnen

Jörn Lamla, Soziologe, Uni Kassel: “Digitaler Analogismus. Das kybernetische Subjekt als gesellschaftlicher Existenzmodus”
Rainer Mühlhoff, Philosoph, TU Berlin: “Predictive Privacy: Datenschutz im Zeitalter von KI“
Michèle Finck, Juristin, MPI für Innovation und Wettbewerb, Titel: tbd.


Organisatorisches

Dieser Call for Papers richtet sich an Wissenschaftler:innen der technischen, geistes-, sozial- und ingenieurwissenschaftlichen Disziplinen, der Rechtswissenschaft, Soziologie, Psychologie, Philosophie, Politik-, Wirtschafts-, Medien- und Kommunikationswissenschaften sowie aller anderen einschlägig in den genannten Feldern arbeitenden Disziplinen. Wir freuen uns sowohl über empirische als auch über theoretische Arbeiten, besonders begrüßt werden fachübergreifende Einreichungen. Für die Präsentation stehen 20 Minuten und für die Diskussion 10 Minuten zur Verfügung. Vortragssprache ist Deutsch, in Ausnahmefällen auch Englisch. Nach Absprache können den Vortragenden Reisekosten erstattet werden.

Die Autoren und Autorinnen ausgewählter Beiträge werden nach der Tagung eingeladen, eine ausgearbeitete Version ihrer Beiträge zur Publikation im Tagungsband einzureichen, der voraussichtlich im Springer-Verlag erscheinen wird.

Geplant ist aktuell eine hybride Veranstaltung, bei der alle Vortragenden im Landtag Hessen in Wiesbaden zusammenkommen, das Publikum aber per Internet teilnimmt.


Wichtige Termine

Beschreibung

Datum

Benachrichtigung der Autor:innen über Annahme15.08.2021
Beginn der Online-Anmeldung01.07.2021
Tagung18./19.11.2021
Aufforderung zur Einreichung für den Tagungsband30.11.2021
Deadline Einreichung von Kapiteln für den Tagungsbandvsl. Februar 2022
Begutachtung und Überarbeitung der KapitelFrühjahr 2022
Veröffentlichung des Tagungsbandsvsl. Spätsommer 2022

 

Programmkomitee

Tagungsleitung

Prof. Dr. Alexander Roßnagel, Universität Kassel
Dr. Michael Friedewald, Fraunhofer ISI

 

Mitglieder des Programmkomitees


 

Presse und Kommunikation

Barbara Ferrarese, Forum Privatheit
Tel.: +49 721 6809-678
E-Mail: presse@forum-privatheit.de

 


Organisation

Dr. Michael Friedewald, Susanne Ruhm, Murat Karaboga, Frank Ebbers
Fraunhofer Institut für System- und Innovationsforschung ISI
info@forum-privatheit.de

Prof. Dr. Alexander Roßnagel, Tamer Bile
Universität Kassel, Wissenschaftliche Zentrum für Informationstechnik-Gestaltung

 

Attribute: Icon made by flaticon from www.flaticon.com