Aktuelles
Alle aktuellen Beiträge »
Prof. Dr. phil. Jörn Lamla ist seit 2013 Professor für Soziologische Theorie am Fachbereich Gesellschaftswissenschaften und seit 2015 Mitglied im Direktorium des Wissenschaftlichen Zentrums für Informationstechnik-Gestaltung (ITeG) der Universität Kassel. Ende 2019 ist er durch die Hessische Ministerin für Digitale Strategie und Entwicklung, Prof. Dr. Sinemus, zum Mitglied des Gründungsdirektoriums des hessischen Kompetenzzentrums für verantwortungsbewusste Digitalisierung ernannt worden, das im Land Hessen die Forschungsexpertise zu wesentlichen Fragestellungen des digitalen Wandels in der Gesellschaft bündeln und stärken soll.
KI lernt durch Rückkopplung, Spotify lernt durch Nutzung. Verhalten wird genauso verwendet wie Trainingsdaten. Algorithmen und digitale Tools werden über Feedbackschleifen optimiert, aber auch Verhalten wird darüber modifiziert. So ist Privatheit nicht nur auf der Außenseite dieser Prozesse zu finden – als das Schützenswerte, das jenseits der Datenverarbeitung liegt –, sondern wird selbst Bestandteil der kybernetischen Konstellation: Privatsphäre-Einstellungen, Exit- und Cookie-Verhalten usw. lassen sich als Feedback-Daten verwenden, um nicht nur digitale Technik und KI, sondern letztlich auch Privatheit zu modellieren und digital zu nudgen. Privatheit, Datenschutz und andere gesellschaftliche Normen und Werte, ja auch die engagierte Kritik an der Entwicklung der digitalen Gesellschaft, sind potenzielle Trainingsdaten, die sich einschreiben in einen digitalen Kosmos, der zu differenzieren lernt, auch differenziert zu bewerten lernt, um die Wirklichkeit in Datenform zu re-produzieren. Wir verweisen gern auf die Diskrepanzen und kritisieren die ökonomische Zurichtung sowie den bias, den die digitale Übersetzung von Welt produziert. Aber auch das ist Bestandteil einer Trainings- und Feedbackkonstellation, die sich an dieser Kritik abarbeitet und lernt, bis es passt und die Kritik verstummt. Es ist eine Kränkung, moralische Kompetenz oder ästhetische Urteilskraft derart als Momente eines kybernetischen Subjekts zu dechiffrieren, das unsere gesellschaftliche Existenz zweitcodiert und überformt. Wir finden uns so als Teil einer großen crowd wieder, die das System mit datenförmigem content versorgt, über den es Gesellschaft beobachtet und in die eigene Sprache transformiert. Müssen wir diesen Existenzmodus also einfach akzeptieren, weil wir ihm ohnehin nicht entkommen können? Oder lässt sich dazu noch Distanz gewinnen – und wenn ja, wie? Die Antwort, die der Vortrag versucht, betrachtet die digitale Kosmologie aus einer anthropologischen Perspektive und gibt diese damit als Variante des Analogismus zu erkennen. Auf dieser Ebene zeigt sich, dass ihre universalistischen Schemata alternative Weisen der Existenz negieren und neigen, sich mit Gewalt durchzusetzen. Um den digitalen Analogismus zu zivilisieren, müssen wir ihn folglich dekolonisieren, d.h. von seinem latenten kybernetischen Totalitarismus befreien.
“
I’m a postdoctoral fellow in philosophy at the Frankfurt School of Finance and Management. My research focuses on topics in applied ethics/ethics of technology, political philosophy, moral psychology, metaethics and normative ethics.
Prior to coming to Frankfurt, I held positions at KIT Karlsruhe and RWTH Aachen University, I received my philosphical training at Tübingen University (Magister, PhD), Cambridge University (MPhil, visiting PhD student), and Sciences Po Paris (visiting student)
“
Leiter Abteilung Media Security und IT Forensics am Fraunhofer SIT
Marianne von Blomberg is a Research Associate at the Chair of Chinese Legal Culture where she explores how the evolving Social Credit Systems strengthen, transform, and challenge the law. Her current research focuses on reputational sanctions in social credit systems and social credit’s genealogy. In her dissertation, she observes the case of China’s Social Credit System to unearth how trust assessment systems in both governance and the market affect the functioning and role of traditional legalities. Marianne holds an LL.M degree from Zhejiang University in Hangzhou, a BA in Communication and Cultural Studies from Zeppelin University in Friedrichshafen and has worked and interned with several news outlets, the Volkswagen Group, and the German Embassy in Ottawa.
Dr. Aleksandra Sowa gründete und leitete zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst Görtz Institut für Sicherheit in der Informationstechnik, ist Autorin diverser Bücher und Fachpublikationen, Dozentin, zertifizierte Datenschutzbeauftragte, Datenschutzauditor und IT-Compliance-Manager. Sie ist Essayistin für das Debattenmagazin The European und Kolumnistin der Zeitschrift Frankfurter Hefte.
Stefan SCHIFFNER received his PhD degree in Electrical Engineering from KU Leuven, in 2012. He has a sound working experience as post-doctoral researcher. His current research interests include the integration of “by design”-paradigms into the product development cycle, maturity assessments of privacy enhancing technologies, and the implications of data protection technologies and cryptography for the regulatory framework and society. Stefan joined the Networking group – NETLAB headed by Prof. Thomas Engel.
“
”
“
Matthias is a research associate in the Security in Distributed Systems (SVS) research group at University of Hamburg, Department of Computer Science.
He studied Computer Science and Engineering at Hamburg University of Technology and graduated in 2016 as Master of Science. Since 2012, he is contributing to the Freifunk Hamburg community.
”
Rainer Mühlhoff, Philosoph und Mathematiker, ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück. Seine Forschungsinteressen sind Ethik, Datenschutz und kritische Theorie im Kontext vernetzter digitaler Medien. In verschiedenen interdisziplinären Projekten bringt er Philosophie, Medienwissenschaft und Informatik zusammen und untersucht das Wechselspiel von Technologie, Macht und gesellschaftlicher Veränderung. Weitere Informationen: https://RainerMuehlhoff.de
Datenschutz und Privatheit stehen angesichts künstlicher Intelligenz vor qualitativ neuen Herausforderungen. Der Vortrag wird dies am Beispiel der prädiktiven Analytik diskutieren: Das sind Anwendungen des maschinellen Lernens, die zur Vorhersage menschlichen Verhaltens oder zur Abschätzung sensibler Informationen über beliebige Individuen oder Gruppen anhand der Daten vieler anderer Menschen verwendet werden. Aus Facebook-Likes zum Beispiel lassen sich mit hoher Genauigkeit Informationen über Krankheiten, sexuelle Identität oder ethnische Zugehörigkeit einer anonymen Nutzer*in ableiten – und zwar weil wenige Facebook-Nutzer*innen diese sensiblen Informationen über sich auf der Plattform preisgeben, so dass Facebook anhand ihrer Daten Vorhersagemodelle trainieren kann, die dann auf alle anderen Facebook-Nutzer*innen an-gewendet werden können. Prädiktive Analytik wird in der Praxis dazu verwendet, Nutzer*innen automatisiert unterschiedlich zu behandeln, etwa bei Kredit- oder Jobentscheidungen oder indem ihnen unterschiedliche Preise, Informationen, Werbung oder Jobangebote angezeigt werden.
Ich werde argumentieren, dass der dominante Angriffstypus auf Privatheit heute nicht mehr die Ermittelung unserer Identität oder der Bruch von Anonymisierung, sondern die automatisierte Ungleichbehandlung von (mitunter anonymen) Nutzer*innen anhand vorhergesagter Informationen ist. Möglich sind diese Verfahren, weil wir alle als Nutzer*innen digitaler Services bei großen Plattformunternehmen Alltagsdaten hinterlassen und es keine effektive Regulierung der Herstellung und Verwendung von Vorhersagemodellen gibt, die anhand dieser Daten trainiert werden.
Unter dem Titel „Predictive Privacy“ stelle ich ein erweitertes Verständnis von Privatsphäre vor, das auch Vorhersagen umfasst: Nicht nur direkt erhobene, sondern auch abgeschätzte Informationen sind als Gegenstand einer möglichen Verletzung von Privatsphäre anzusehen. Aus diesem Befund leitet sich die politische Forderung ab, dass abgeschätzte Informationen im Datenschutz analog zu personenbezogene Daten behandelt werden müssen. Das bedeutet, auch die Verbreitung und Anwendung trainierter prädiktiver Modelle zu limitieren, die in der aktuellen Praxis der DSGVO kaum Beschränkungen erfährt.
Das Problem der prädiktive Privatheit markiert einen grundlegenden Bruch mit individualistischen Auslegungen von Datenschutz. So ist prädiktive KI mit einem kollektiven ethischen und politischen Problem verbunden: Es ist nicht folgenlos, seine Daten preiszugeben, auch wenn man für sich selbst meint, „nichts zu verbergen zu haben“. Im aktuellen technologischen und regulatorischen Rahmen haben die eigenen Daten Auswirkungen auf andere. Deshalb sind auch neue und als „Privacykonform“ beworbene Techniken wie Federated Machine Learning und FLoC mit erheblichen Datenschutzrisiken verbunden, die gerade darin bestehen, dass diese Techniken prädiktive Privatheit verletzen, auch wenn sie individualistisch verstandene Privatheit möglicher-weise schützen.
Mehr Informationen: https://predictiveprivacy.org
Michèle Finck hat als Professorin den neu geschaffenen Lehrstuhl für Recht der Künstlichen Intelligenz an der Universität Tübingen übernommen. Ihre Forschungsschwerpunkte sind die rechtlichen Implikationen der Künstlichen Intelligenz (KI), insbesondere mit Bezug auf Datenrecht und Daten-Governance. Fragen bezüglich KI und Nachhaltigkeit sowie Klimawandel stehen ebenso im Fokus des Lehrstuhls.
Dr. Niël Conradie ist wissenschaftlicher Mitarbeiter in der Angewandten Ethik. Derzeit liegt der Schwerpunkt seiner Arbeit auf kollektiver Verantwortung und wie Fragen individueller und kollektiver Verantwortung mit KI und anderen aufkommenden Technologien zusammenhängen. Er promovierte in Philosophie an der Schnittstelle von Verantwortungsforschung und Handlungstheorie an der Universität St. Andrews in Schottland. Seinen M.A. in Philosophie und B.A. absolvierte er an der Universität von Stellenbosch, Südafrika. Niël ist ein sehr verantwortungsbewusster Mensch.
Dr. Hartmut Aden, Politikwissenschaftler und Jurist, ist Professor für Öffentliches Recht und Europarecht an der Hochschule für Wirtschaft und Recht Berlin.
Lena Isabell Löber ist wissenschaftliche Mitarbeiterin am Wissenschaftlichen Zentrum für Informationstechnikgestaltung (ITeG) an der Universität Kassel. In ihren Forschungsschwerpunkten beschäftigt sie sich mit dem Recht der digitalen Medien, dem Kommunikationsverfassungsrecht und der Gestaltung datenschutzfreundlicher Algorithmen und Anwendungen. Sie promoviert bei Prof. Dr. Alexander Roßnagel zum Thema digitale Desinformation und Kommunikationsgrundrechte unter besonderer Berücksichtigung der Regulierung von Social Networks. Zuvor studierte sie Rechtswissenschaften in Marburg und Oslo und absolvierte ihren juristischen Vorbereitungsdienst in Frankfurt am Main und New York mit dem Schwerpunkt Öffentliches Recht.
KI-basierte Detektions- und Filtersysteme sind in Social Networks unverzichtbare Werkzeuge zur Bekämpfung von Desinformation. Für ihren rechtmäßigen Einsatz müssen unter Berücksichtigung technischer Möglichkeiten und Grenzen die widerstreitenden Grundrechtsbelange austariert werden. Daher sind Risiken für die Kommunikationsgrundrechte durch manuelle Nachkontrollen und einen verfahrensbasierten Grundrechtsschutz einzuhegen. Neben gesetzlichen Pflichten, rechtswidrige Inhalte zu entfernen, dürfen Anbieter von Social Networks in ihren privatautonomen Kommunikationsregeln grundsätzlich auch für Desinformation und Hassrede unterhalb der gesetzlich vorgegebenen Schwelle Sanktionen vorsehen. Jedoch nimmt die algorithmenbasierte Informationssteuerung wirkmächtiger Social Networks erheblichen Einfluss darauf, welche meinungsbildungsrelevanten Inhalte wie wahrgenommen werden. Sie können dadurch die mediale Öffentlichkeit in schädigender oder zumindest nicht transparenter Weise strukturieren. Gesetzliche Transparenzvorgaben stellen ein taugliches Mittel dar, allgemeine Angaben zu Einsatz und Funktionsweise der Sortier-, Priorisierungs- und Selektierungsmethoden zu erhalten. Als Kontrollmaßstäbe und zum Aufbau freiheitssichernder Gegenmacht sind sie allerdings nur begrenzt geeignet.
2021 habe ich meinen Bachelor-Abschluss in IT-Sicherheit an der Ruhr-Universität-Bochum absolviert. In meiner Bachelorarbeit mit dem Titel „Untersuchung zum Wechsel der Messenger-Plattform arabischsprachiger Nutzer:innen“ wurde untersucht, ob die neue Nutzungsbedingungen von Whatsapp, die Anfang des Jahres 2021 in den Fokus der Öffentlichkeit geraten sind, zu einem Wechselverhalten zwischen den arabischsprachigen Bürger:innen in Deutschland geführt haben und was die Gründe sind, die dazu geführt haben. Zurzeit arbeite ich als Sicherheitsanalysten bei ConSecur.
Instant Messenger gehören zu den am häufigsten installierten und genutzten Apps auf modernen Smartphones. Sie unterstützen die Multimedial Kommunikation durch Text, Bild und Video und erlauben häufig Audio- und Videogespräche zwischen Einzelpersonen und in Gruppen. Bei ihrer Nutzung fallen (Meta)Daten an, die umfangreiche personenbezogene Daten enthalten und zum Profiling genutzt werden können. Die Wahl des Messengers ist also aus Datenschutz- wie Datensicherheitssicht brisant. Sogar die Marktführenden Apps aus dem Facebook Konzern, Whatsapp und Facebook Messenger, bieten teilweise Sicherheitsfeatures wie Ende-zu-Ende Verschlüsselung räumen aber gleichzeitig Facebook weitreichende Rechte bei der Auswertung der Daten ein.
Im Alltag der Nutzenden spielen diese Aspekte allerdings häufig nur eine nachgelagerte Rolle. Zwar gibt es eine Reihe Messenger die besonderen Wert auf Datenschutz und Datensicherheit legen wie Threema oder Signal. Nutzer:innen zweifeln teilweise grundsätzlich daran, dass Verschlüsselung sie schützen kann (Dechand et al. 2019). Zuletzt waren die Datennutzungspraktiken von Facebook im Rahmen einer Änderung der Datenschutzerklärung in den Fokus der Öffentlichkeit geraten. In den Medien wurde ausführlich berichtet, so dass Facebook mehrfach zusätzliche Erklärungen veröffentlichte und die Umsetzung der neuen Richtlinien verschoben.
Im Rahmen einer Online-Fragebogen Studie haben wir untersucht welche Wert Datenschutz bei der Auswahl von Messengern hat und wie sich die Aufmerksamkeit um diese Frage bei Whatsapp auf das Nutzungs- und insbesondere Wechselverhalten ausgewirkt hat. In der Vergangenheit waren Befragungen häufig auf den Angloamerikanischen Raum konzentriert oder haben versucht repräsentativ für eine bestimmte Land zu sein (Luca et al. 2016). Der Fokus unserer Untersuchung liegt hingegen auf arabischsprachige Nutzer:innen in Deutschland, die in vorherigen Studien unterrepräsentiert sind. In unsere Arbeit präsentieren wir die Ergebnisse einer Online-Befragung von 212 Nutzer:innen die im April 2021 durchgeführt wurde. Die Teilnehmer:innen beantworteten Fragen Smartphone- und Messengernutzung sowie zur Möglichkeit und Gründen des Messengerwechsel.
Unsere Studie zeigt, dass in dieser speziellen Nutzer:innengruppe auch weniger populäre Messenger wie Viber oder IMO verbreitet sind, die z.B. zur Kommunikation mit Verwandten im Ausland genutzt werden. Im Bezug auf Whatsapp könnten wir feststellen, dass eine Mehrheit (54%) das Informations-Pop-Up von Whatsapp nicht bemerkt haben. Nur 8% der Befragten gaben an den Messenger Wechseln und Whatsapp nicht weiter nutzen zu wollen. Gleichzeitig hatten über 10% in den vergangene Monaten einen weiteren Messenger installiert, hier führten Signal und Telegram die Listen an. Insgesamt bestätigt unsere Studie Ergebnisse aus vorherigen Studien mit anderen Nutzer:innen wie etwa, dass die Gründe für die nicht-Nutzung von sichereren Messenger unter anderem in der Fragmentierung der Nutzergruppen liegt (Abu-Salma et al. 2017).
In unserer Umfrage gaben 64% der Befragten an, dass teile ihrer Kommunikation nur über Whatsapp möglich sei, z.B. weil bestimmte Netzwerke im Beruf oder Studium nur darüber gepflegt würden. Darüber stimmten 55% der Aussage zu, dass sie keine sensiblen Informationen über Whatsapp teilen würden. Hier hatte Abu-Salman in einer qualitativen Studie festgestellt, dass Ausweichstrategien genutzt würden, wie etwa sensible Informationen nur in Sprachanrufen mitzuteilen.
Ein weitere Schwerpunkt lag auf der Befragung der Wechselwilligen. Die 18 Teilnehmer:innen die Whatsapp verlassen wollten wurden unter anderem gefragt, was die Gründe für einen Wechsel sind und in wie fern Sie andere Nutzer:innen zum Wechsel überreden würden. Den größten Einfluss haben hier Bekannten und Expert:innen die einen Wechsel empfohlen haben. Selbst andere zum Wechsel überreden versuchten nur 6 der Teilnehmenden mit mäßigem Erfolg.
Im Ergebnis zeigt die Studie, dass die Befragte Gruppe teilweise andere Nutzungsszenarien für Messenger besitzt. Im Bezug auf Datenschutz und Datensicherheit teilen Sie zwar die Bedenke, die aus anderen Studien bekannt sind, aber genauso wie in anderen Gruppen führt der Netzwerkeffekt dazu, dass auf besonders häufig genutzte Messenger nicht verzichtet werden kann. Nichtsdestotrotz hat unter anderem die Aufmerksamkeit für die Änderung der Datenschutzbedingungen bei Whatsapp dazu geführt, dass ein Teil der Befragten ihr Nutzungsverhalten überdacht hat und teilweise zusätzliche Messenger installiert hat. Nur die wenigsten können auf Whatsapp ganz verzichten.
Wissenschaftliche Mitarbeiterin am Lehrstuhl für Technik, Arbeit, Gesellschaft am Nuremberg Campus of Technology. Promoviert in dem Themenfeld: Digitale Plattformökonomie und algorithmische Arbeitskoordination im Spannungsverhältnis von Autonomie und Kontrolle. Arbeitsschwerpunkte: Arbeits-, Technik- und Kultursoziologie sowie qualitative Methoden.
Die ‚schöne neue Welt’ der digitalen Daten-Sharing-Ökonomie trackt, speichert, aggregiert und verkauft all unsere digitalen Spuren, Handlungen und Interaktionen. Die vermeintliche Neutralität von Plattformen verschiedenster Couleur, die mittels algorithmischer Infrastrukturen diese Datafizierung vorantreiben, propagieren, dass ihre Datensammlungen eine Form der ‚höheren‘ Intelligenz generierten, die Wissen, Wahrheit und Objektivität herstellen würden. Die Asymmetrie zwischen den Subjekten und den datensammelnden Organisationen sowie das Ausmaß, der Umfang und Zweck dieser Bemühungen wird dabei verschleiert. Dabei ergeben sich auf der Ebene des Subjekts gravierende Veränderungen: einerseits schaffen und prägen Algorithmen eine eigene Wirklichkeit, welche die informationelle Selbstbestimmung gefährdet, da die Möglichkeit zur Verhaltensmanipulation die Selbstbestimmung untergraben kann. Die Auflösung der Privatsphäre im virtuellen Raum ist andererseits auch durch die Aggregation nicht-personenbezogener Daten bedingt, da durch Korrelation von enormen Mengen an Daten personenbezogene Daten abgeleitet werden. Diese Art von „Daten-Behaviorismus“ (Rouvroy, 2013) leistet einer algorithmischen Gouvernance Vorschub. Das so geschaffene digitale Panoptikum ist unsichtbar, schmerzfrei und tritt diskursiv mit Schlagworten wie Transparenz, Vernetzung und Sharing auf. Das Recht auf Privatsphäre wird so sukzessive entwertet und zurückgedrängt. Dabei ist vielen Menschen Datenschutz wichtig, gleichzeitig müssen und wollen sie virtuell präsent sein, wodurch zum Teil keine andere Wahl bleibt, als mit den persönlichen Daten zu bezahlen, um partizipieren zu können. Das Konzept des Datenschutzes avanciert daher zu einer der zentralen Machtfragen im 21. Jahrhundert.
Torben Jan Barev ist wissenschaftliche Mitarbeiter an der Universität Kassel am Fachgebiet für Wirtschaftsinformatik. Er absolvierte er ein Masterstudium an der University of Melbourne im Bereich Marketingmanagement. Seine Forschungsinteresse liegt insbesondere auf dem Entscheidungsverhalten in digitalen Umgebungen, der Privatheit sowie der Arbeitswelt der Zukunft.
Sabrina Schomberg ist seit 2019 wissenschaftliche Mitarbeiterin des Fachgebiets Öffentliches Recht, IT-Recht und Umweltrecht am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) an der Universität Kassel, in dem Projekt „Nudging Privacy in der digitalisierten Arbeitswelt – Systematische Konzeptentwicklung und Pilotierung“ (Nudger) und seit 2021 auch in dem Projekt „PRIvatheit, Demokratie und Selbstbestimmung im Zeitalter von KI und Globalisierung“ (PRIDS). Von 2016-2018 absolvierte sie den Juristischen Vorbereitungsdienst am LG Kassel mit Stationen in Speyer und Berlin und schloss diesen mit dem Zweiten Juristischen Staatsexamen ab. Zuvor studierte sie Rechtswissenschaften an der Georg-August-Universität Göttingen und der Université de Genève mit dem Abschluss des Ersten Juristischen Staatsexamens und dem Schwerpunkt „Internationales und Europäisches öffentliches Recht“.
Neue Technologien wie Big Data und Künstliche Intelligenz (KI) und zugleich die immer günstiger werdenden Prozessoren und Sensoren ermöglichen, dass Unternehmen im Rekrutierungsprozess immer schneller und in größerem Umfang Daten über Bewerber sammeln, aggregieren und analysieren können. Bei der Bewerberauswahl nutzen Unternehmen verstärkt Technologien und Tools der KI. Jedoch ist den sich bewerbenden Personen teilweise gar nicht bewusst, welche Daten über sie gesammelt werden. In diesem Beitrag wollen wir daher einerseits Gestaltungsaspekte von KI gestützten Nudges innerhalb dieses Rekrutierungsprozesses untersuchen. Nudging beschreibt dabei ein Konzept zur Beeinflussung von Verhalten ohne dabei auf Verbote und Gebote zurückgreifen oder ökonomische Anreize verändern zu müssen. In der Gestaltung um smarte Nudges werden Transparenz und Autonomie als entscheidende Konzepte definiert. Andererseits wird analysiert, welche gesetzlichen Anforderungen mit Blick auf den Entwurf der EU-Kommission für eine KI-Verordnung in Zukunft gelten könnten. Wichtig ist, dass Menschen im Bewerbungsprozess nicht alles vorgehalten werden darf, was sie jemals Online getan, gepostet, retweetet oder geschrieben haben.
Rita Jordan hat Europa-, Rechts- und Politikwissenschaften studiert. Sie ist seit März 2021 wissenschaftliche Mitarbeiterin am ScaDS.AI Dresden/Leipzig sowie assoziierte Kollegiatin am SchauflerLab@TU Dresden. Ihre Arbeit konzentriert sich auf die Schnittstellen von Recht, politischer Theorie und Technologie, insbesondere auf theoretische und praktische Zugänge zu Demokratie, Künstlicher Intelligenz und gemeinwohlorientierter Technologieentwicklung.
Der Vortrag befasst sich mit der Frage, inwiefern unter Bedingungen der zunehmenden Datafizierung und Echtzeitsteuerung zahlreicher Bereiche unserer Lebenswelt eine Abgrenzung von personenbezogenen zu nicht personenbezogenen Daten noch zeitgemäß ist, um die Schutzzwecke des Datenschutzrechts (Persönlichkeitsschutz, informationelle sowie demokratische Selbstbestimmung) zu erreichen. Nach einem Überblick über die rechtliche Definition des Personenbezugsmerkmals in der europäischen Datenschutzgrundverordnung und einer kritischen Perspektive auf die gesellschaftlichen und politischen Risiken des Einsatzes KI-basierter Steuerungstechnologien zeigt der Beitrag am Beispiel einer intelligent vernetzten Verkehrsinfrastruktur, dass in einem System ubiquitärer Datenerfassung und -verarbeitung nahezu alle Daten potentiell auf eine Person bezogen werden können. Daraus ergibt sich, dass eine bloße Anwendung des geltenden Datenschutzrechts den Schutz individueller Rechte und Autonomie nur unvollkommenen gewährleistet. Abschließend werden im Sinne eines technologiespezifischen, auf konkrete Gefährdungslagen antwortenden Privatheitsschutzes konkrete Vorschläge für eine Nachbesserung des Datenschutzrechts im Rahmen teilautomatisierter Verkehrssteuerungssysteme im öffentlichen Raum gegeben.
Nikolaus Bauer studierte Rechtswissenschaften und Public Policy. Er arbeitete als Anwalt für eine öffentlich-rechtliche Kanzlei und als Referent für die Berliner Beauftragte für Datenschutz und Informationsfreiheit. Derzeit ist er wissenschaftlicher Mitarbeiter beim Bayerischen Forschungsinstitut für Digitale Transformation (bidt) und an der Juniorprofessur von Prof. Dr. Tischbirek (Universität Regensburg).
In ihren am 21.04.2021 veröffentlichten Regulierungsvorschlägen zu Künstlicher Intelligenz schlägt die Europäische Kommission vor, biometrische Gesichtserkennung im öffentlichen Raum grundsätzlich zu verbieten und nur ausnahmsweise innerhalb enger Grenzen zu erlauben. Ein Mitgliedstaat soll entscheiden dürfen, die Technik in seinem nationalen Recht ganz oder teilweise innerhalb der engen Grenzen zu erlauben. Damit stellt sich zum einen die Frage, ob es verfassungsrechtlich zulässig wäre, eine nationale Rechtsgrundlage zu schaffen. Zum anderen ist vor dem Hintergrund der gesellschaftlichen Debatte über die Systeme fraglich, ob eine nationale Rechtsgrundlage geschaffen werden sollte, selbst wenn dies verfassungsrechtlich zulässig wäre. Aufgrund der Schwere des Grundrechtseingriffs – die Maßnahme erfasst eine hohe Zahl von Bürgerinnen und Bürgern, die keinen Anlass dafür gegeben haben, und den dadurch eintretenden Einschüchterungseffekten (“chilling effects”), dürfte der Gesetzgeber wohl nur innerhalb sehr enger verfassungsrechtlicher Grenzen eine Ermächtigungsgrundlage für die Technologie schaffen. Die verfassungsrechtlichen Grenzen sind wohl noch enger als der Rahmen, den die Europäische Kommission in ihren Regulierungsvorschlägen anstrebt. Aufgrund der noch ungeklärten Frage der gesellschaftlichen Akzeptanz sollte allerdings eine weitergehende breite öffentliche demokratische Debatte über den Einsatz der Technologie geführt werden. Bevor eine solche demokratische Debatte nicht abgeschlossen ist, sollte der nationale Gesetzgeber von der Schaffung einer Rechtsgrundlage absehen (“Moratorium”).
Dr. Thilo Hagendorff ist Experte für angewandte Ethik, insbesondere Technik- und KI-Ethik sowie Autor mehrerer Sachbücher. Er arbeitet im Exzellenz-Cluster “Machine Learning: New Perspectives for Science” sowie am Internationalen Zentrum für Ethik in den Wissenschaften an der Universität Tübingen. Darüber hinaus ist er Lehrbeauftragter u.a. am Hasso-Plattner-Institut der Universität Potsdam sowie Mitglied in verschiedenen Arbeitsgruppen zur KI Governance.
Mehrere KI-Ethik-Initiativen haben eine Reihe von Prinzipien für eine “ethische” Technologieentwicklung festgelegt. Kritiker haben jedoch auf die mangelnde praktische Umsetzung dieser Prinzipien hingewiesen. In der Folge erfuhr die KI-Ethik einen “practical turn”, ohne jedoch vom prinzipienbasierten Ansatz und den damit verbundenen Mängeln abzuweichen. Der Vortrag schlägt einen anderen Ansatz vor. Er definiert vier basale KI-Tugenden (Gerechtigkeit, Offenheit, Verantwortung und Fürsorge). Diese stellen spezifische Dispositionen dar, welche die eigentliche Voraussetzung für ethische Entscheidungsfindungsprozesse im Bereich der KI-Entwicklung bilden. Darüber hinaus werden zwei KI-Tugenden zweiter Ordnung definiert, nämlich Klugheit und Standhaftigkeit, die das Erreichen der vier basalen Tugenden unterstützen, indem sie bei der Überwindung von Effekten der “bounded ethicality” helfen, die Prozesse ethischer Entscheidungsfindung beeinträchtigen und die bisher in der KI-Ethik nicht beachtet werden. Schließlich werden Maßnahmen zur erfolgreichen Kultivierung der genannten Tugenden in Organisationen beschrieben, die sich mit KI-Forschung und -Entwicklung befassen.
Ernestine Dickhaut, Andreas Janson, Laura Friederike Thies, Jan Marco Leimeister and Matthias Söllner
Durch die Digitalisierung werden immer mehr Technologien entwickelt. Dabei gewinnt die sozio-technische Systementwicklung zunehmend an Bedeutung, da nicht nur das technische System isoliert betrachtet wird, sondern auch der Nutzer und sein Umfeld. Insbesondere in der Entwicklung rechtsverträglicher Systeme stehen Entwickler häufig aufgrund fehlenden rechtlichen Fachwissens vor großen Herausforderungen. Dies gilt insbesondere dann, wenn es um intelligente, selbstlernende Systeme geht. Diese Systeme sammeln Daten auf neue Art und Weise, um die Qualität ihres Dienstes zu verbessern und sich so gut wie möglich an die Bedürfnisse der Nutzer anpassen zu können. Ziel des Beitrags ist daher mittels einen multi-methodischen Ansatzes aufzuzeigen, welchen Beitrag interdisziplinäre Anforderungs- und Entwurfsmuster für die Entwicklung rechtsverträglicher und qualitativ hochwertiger KI-basierter Systeme leisten können. Um die Wirksamkeit der Muster zu untersuchen wurde mithilfe der Muster ein Lernassistent entwickelt und durch die Methode der Simulationsstudie evaluiert.
Ernestine Dickhaut ist Doktorandin und wissenschaftliche Mitarbeiterin am Fachgebiet Wirtschaftsinformatik und dem Wissenschaftlichen Zentrum für Informationstechnikgestaltung (ITeG) an der Universität Kassel. In ihren Forschungsschwerpunkten beschäftigt sie sich mit der Kodifizierung von konfliktärem, domänenspezifischem Wissen und wie dieses für Systementwickler zugänglich gemacht werden kann. Sie studierte an der TU Darmstadt den interdisziplinären Studiengang Psychologie in IT.
Dr. Andreas Janson ist Post-Doc und Projektleiter am lnstitut für Wirtschaftsinformatik der Universität St.Gallen (IWI-HSG). Dr. Andreas Janson promovierte an der Universität Kassel zu digitalen Lernprozessen. Seine Forschungsinteressen umfassen dabei insbesondere das Decision-making in digitalen Umgebungen und die Gestaltung von digitalen Dienstleistungen. Seine Forschung wurde unter anderem in Journals wie dem Journal of the Association for Information Systems (JAIS), Journal of Information Technology (JIT) und dem Acade Management Learning & Education (AMLE) Journal veröffentlicht. Für seine Forschung rund um Privacy Nudging gewann er den Best Paper Award der Hawaii International Conference on System Sciences (HICSS) 2020.
Laura Friederike Thies promoviert an der Universität Kassel zu einem datenschutzrechtlichen Thema und war bis Juli 2020 wissenschaftliche Mitarbeiterin im Projekt AnEkA (Anforderungs- und Entwurfsmuster zur rechtsverträglichen und qualitätszentrierten Gestaltung kontextsensitiver Applikationen <http://www.uni-kassel.de/fb07/fr/institute/iwr/personen-fachgebiete/rossnagel-prof-dr/forschung/provet/aneka.html> ) in der Projektgruppe verfassungsverträgliche Technikgestaltung – provet – am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel.
Professor Dr. Jan Marco Leimeister ist Leiter des Fachgebietes Wirtschaftsinformatik und Direktor am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel. Er ist zudem Ordinarius für Wirtschaftsinformatik und Direktor am Institut für Wirtschaftsinformatik (IWI HSG) der Universität St.Gallen. Seine Forschungsschwerpunkte liegen im Bereich Digital Business, Digital Transformation, Dienstleistungsforschung, Crowdsourcing, Digitale Arbeit, Collaboration Engineering und IT Innovationsmanagement. Er unterrichtet in diversen Executive Education Programmen zu diesen Themen.
Matthias Söllner ist Professor und Lehrstuhlinhaber für Wirtschaftsinformatik und Systementwicklung sowie Direktor des interdisziplinären Forschungszentrums für IS-Design (ITeG) an der Universität Kassel. Seine Forschung konzentriert sich auf das Verständnis und die Gestaltung erfolgreicher digitaler Innovationen in Bereichen wie der Hochschul- und Berufsbildung sowie Hybrid Intelligence. Seine Forschung wurde von Zeitschriften wie MIS Quarterly (Research Curation), Journal of the Association for Information Systems, Academy of Management Learning & Education, Journal of Information Technology, European Journal of Information Systems und Business & Information Systems Engineering veröffentlicht.
Sofia Marlena Schöbel, Sabrina Schomberg, Torben Barev, Thomas Grote, Andreas Janson, Gerrit Hornung and Jan Marco Leimeister
Die Digitalisierung verändert unsere Gesellschaft, die Art wie wir miteinander kommunizieren und wie wir arbeiten. Aktuellen Prognosen zufolge werden im Jahre 2022 60 % des weltweiten Bruttoinlandsprodukts mithilfe digitaler Technologien erbracht. Dabei birgt die Digitalisierung nicht nur Vorteile, sondern führt auch dazu, dass jedes Individuum durch sein Agieren in der digitalen Welt Datenspuren hinterlässt. Diese Daten werden gesammelt, aggregiert und ausgewertet, und das vielfach, ohne dass sich Individuen dessen bewusst sind. Es bedarf somit innovativer Lösungen, die sowohl die Chancen der Digitalisierung ausschöpfen als auch gleichzeitig gewährleisten, dass seitens der Individuen sorgsam mit Daten umgegangen wird. Hier kann das sogenannte Privacy Nudging genutzt werden, durch das Nutzer “”angestupst”” werden, um ihr Verhalten zu verändern. Auch wenn sich der Einsatz von Privacy Nudges durchaus als effektiv und sinnvoll erwiesen hat, gibt es zahlreiche rechtliche, ethische und auch soziotechnische Hürden, die es bei der Gestaltung von Nudges zu berücksichtigen gilt. Ein prominentes Beispiel ist hierbei das klare Framing von Entscheidungen bei der Annahme von Internet-Cookies. So werden zwar datenschutzfreundliche Defaults vorgegeben, allerdings framen vermehrt Internetplattformen die Entscheidung so, dass Nutzende einfacher weiteren Cookies zustimmen als den eigentlichen Default zu behalten. Entsprechend präsentiert der Beitrag eine integrative sozio-technische Gestaltungsperspektive für Privacy Nudging, indem Technik, Ethik und Recht nicht mehr nur isoliert betrachtet werden.
Dr. Sofia Schöbel ist Post Doktorandin und Projektleiterin an der Universität Kassel am Fachgebiet für Wirtschaftsinformatik. Dr. Sofia Schöbel promovierte zum Thema Gamification für digitale Lernanwendungen. Ihre Forschungsinteressen beziehen sich neben der Gestaltung von digitalen Nudges auf die Nutzung und die Gestaltung von smarten, persönlichen Assistenten und darauf, wie Nutzer zu einer Interaktion mit dem Assistenten motiviert und angeregt werden können. Ihre Forschungsergebnisse wurden auf international anerkannten Konferenzen wie der International Conference on Information Systems (ICIS) sowie in Journals wie dem European Journal of Information Systems (EJIS) publiziert.
Sabrina Schomberg ist seit 2019 wissenschaftliche Mitarbeiterin des Fachgebiets Öffentliches Recht, IT-Recht und Umweltrecht am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) an der Universität Kassel, in dem Projekt “Nudging Privacy in der digitalisierten Arbeitswelt – Systematische Konzeptentwicklung und Pilotierung” (Nudger). Von 2016-2018 absolvierte sie den Juristischen Vorbereitungsdienst am LG Kassel mit Stationen in Speyer und Berlin und schloss diesen mit dem Zweiten Juristischen Staatsexamen ab. Zuvor studierte sie Rechtswissenschaften an der Georg-August-Universität Göttingen und der Université de Genève mit dem Abschluss des Ersten Juristischen Staatsexamens und dem Schwerpunkt “Internationales und Europäisches öffentliches Recht”.
Torben Jan Barev ist wissenschaftliche Mitarbeiter an der Universität Kassel am Fachgebiet für Wirtschaftsinformatik. Er absolvierte er ein Masterstudium an der University of Melbourne im Bereich Marketingmanagement. Seine Forschungsinteresse liegt insbesondere auf dem Decision-making in digitalen Umgebungen und seine Forschung wurde unter anderem im Journal Datenschutz und Datensicherheit (DuD) oder auf Konferenzen wie der International Conference on Design Science Research in Information Systems and Technology (DESRIST) veröffentlicht. Für seine Forschung rund um Privacy Nudging gewann er den Best Paper Award der Hawaii International Conference on System Sciences (HICSS) 2020.
Thomas Grote, Universität Tübingen
Dr. Andreas Janson ist Post-Doc und Projektleiter am lnstitut für Wirtschaftsinformatik der Universität St.Gallen (IWI-HSG). Dr. Andreas Janson promovierte an der Universität Kassel zu digitalen Lernprozessen. Seine Forschungsinteressen umfassen dabei insbesondere das Decision-making in digitalen Umgebungen und die Gestaltung von digitalen Dienstleistungen. Seine Forschung wurde unter anderem in Journals wie dem Journal of the Association for Information Systems (JAIS), Journal of Information Technology (JIT) und dem Acade Management Learning & Education (AMLE) Journal veröffentlicht. Für seine Forschung rund um Privacy Nudging gewann er den Best Paper Award der Hawaii International Conference on System Sciences (HICSS) 2020.
Prof. Dr. Gerrit Hornung, LL.M., studierte Rechtswissenschaften und Philosophie an den Universitäten Freiburg und Edinburgh. 2005 wurde er an der Universität Kassel mit einer Arbeit über Rechtsprobleme von Chipkartenausweisen promoviert. Nach dem Referendariat war er 2006 bis 2011 Geschäftsführer der Projektgruppe verfassungsverträgliche Technikgestaltung (provet) an der Universität Kassel und habilitierte sich dort mit der Arbeit „Grundrechtsinnovationen“. 2011 bis 2015 war er Professor für Öffentliches Recht, IT-Recht und Rechtsinformatik an der Universität Passau. Seit 2015 ist Hornung Professor für Öffentliches Recht, IT-Recht und Umweltrecht an der Universität Kassel und Direktor am dortigen Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG).
Professor Dr. Jan Marco Leimeister ist Leiter des Fachgebietes Wirtschaftsinformatik und Direktor am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel. Er ist zudem Ordinarius für Wirtschaftsinformatik und Direktor am Institut für Wirtschaftsinformatik (IWI HSG) der Universität St.Gallen. Seine Forschungsschwerpunkte liegen im Bereich Digital Business, Digital Transformation, Dienstleistungsforschung, Crowdsourcing, Digitale Arbeit, Collaboration Engineering und IT Innovationsmanagement. Er unterrichtet in diversen Executive Education Programmen zu diesen Themen.
Jutta Croll, Elisabeth Schauermann, Clemens Gruber, Sebastian Pütz and Judith Michael
Smart Wearables, wie zum Beispiel Fitnesstracker, zeigen nicht nur Benachrichtigungen vom Smartphone an und messen den Puls, sondern sie analysieren das Schlafverhalten, zählen Schritte, zeichnen Ort und Dauer von Trainingseinheiten auf und berechnen den Kalorienverbrauch. Die Daten diverser Endgeräte können auf Plattformen zusammengeführt werden, um ein komplexes Profil der Nutzenden und deren Umgebung zu erstellen. Entsprechend hoch ist der Bedarf der Nutzer*innen nach einer Grundlage für die erleichterte, reflektierte Entscheidungsfindung zur Sammlung, Verarbeitung und Weitergabe ihrer Daten. Das Projekt InviDas erforscht interaktive und visuelle Datenräume, um Einverständnis- und Datennutzungserklärungen verständlich und erlebbar zu machen. Komplexe Zusammenhänge werden durch grafische Darstellungen der gesammelten Daten abgebildet. Bisher nicht sichtbare Zusammenhänge werden dadurch nachvollziehbar. Ansätze und Ergebnisse sollen im Beitrag vorgestellt und mit der Fachöffentlichkeit erläutert werden.
Jutta Croll ist Vorstandsvorsitzende der Stiftung Digitale Chancen, einer gemeinnützigen Organisation unter der Schirmherrschaft des BMWi und des BMFSFJ. Sie ist verantwortlich für das auf internationale Zusammenarbeit ausgerichtete Projekt Kinderschutz und Kinderrechte in der digitalen Welt. Als Wissenschaftlerin befasst sich Jutta Croll mit den Themen Medienpolitik und Mediennutzung, Förderung der Medienkompetenz und Entwicklung eines zeitgemäßen Kinder- und Jugendschutzes im Internet unter Berücksichtigung der Rechte von Kindern einerseits und aktueller technischer Entwicklungen andererseits sowie Usability und Accessibility im Bereich der Informations- und Kommunikationstechnologien, Fragen des Datenschutzes und der Nutzung von Social Media zur Förderung gesellschaftlicher Prozesse. Sie arbeitet zusammen mit dem Council of Europe, der Europäischen Kommission, der UNESCO, den Vereinten Nationen und ICANN.
Elisabeth Schauermann ist Referentin für Politik bei der Gesellschaft für Informatik e.V. und koordiniert dort unter anderem das Projekt InviDas (= Interaktive, visuelle Datenräume zur souveränen, datenschutzrechtlichen Entscheidungsfindung) und das Digital Autonomy Hub, im Zuge Projekte und Initiativen vernetzt werden, die sich mit individueller digitaler Souveränität und der Mündigkeit von Nutzer*innen befassen. Ihr fachlicher Fokus liegt auf offener Governance, Chancengerechtigkeit und Datendemokratie.
Judith Michael ist PostDoc und Teamleiterin für Modell-basierte Assistenz- und Informationsservices am Lehrstuhl für Software Engineering der RWTH Aachen sowie Aufsichtsratsvorsitzende der Lakeside Science & Technology Park GmbH in Österreich. Ihre Forschung umfasst die (konzeptuelle) Modellierung von z.B. Datenschutzerklärungen oder menschlichen Verhaltenszielen für Assistenzsysteme, die Modell-basierte Entwicklung von Assistenz- und Informationssystemen sowie die Konzeption der entsprechenden Softwarearchitekturen. Durch die Modell-basierten Ansätze lassen sich die Wünsche der Anwender*innen schneller in qualitativ hochwertige Softwareprodukte umsetzen. www.se-rwth.de/~michael/
Clemens Gruber
Sebastian Pütz
Clemens Arzt, Hartmut Aden and Jan Faehrmann
Technische Anwendungen werden zunehmend vernetzt und tauschen Daten aus. Daher steigt das polizeiliche Interesse am Zugriff darauf. Solche Maßnahmen greifen nicht nur in Grundrechte ein, sondern können Einschüchterungseffekte bewirken, wodurch Menschen von der gesellschaftlichen Teilhabe abgehalten werden können. Technische Neuerungen können aber auch die polizeiliche Tätigkeit vereinfachen. Neuen Bedrohungsszenarien kann die Polizei teils nur mit technischen Neuerungen begegnen. Mithin wird immer mehr polizeiliche Technik offen und verdeckt zum Einsatz kommen. Für Betroffene ist der Technikeinsatz regelmäßig intransparent – sogar der offene. Im Rahmen des Beitrages werden aus einer rechts- und verwaltungswissenschaftlichen Perspektive Transparenzinstrumente betrachtet und analysiert. Dabei wird untersucht, welche europa-, verfassungs- und einfachrechtlichen Vorgaben für eine transparente Gestaltung des offenen polizeilichen Technikansatzes bestehen und wie diese umgesetzt werden können.
Prof. Dr. Clemens Arzt ist Professor für Staats- und Verwaltungsrecht mit dem Schwerpunkt Polizei- und Ordnungsrecht an der HWR Berlin und Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin). Seine Forschungsgebiete sind insbesondere deutsches und ausländisches Polizei- und Versammlungsrecht, Schutz kritischer Infrastrukturen und Recht der Fahrzeugautomatisierung. Am interdisziplinär ausgerichteten FÖPS Berlin leitet er die rechtswissenschaftliche Beteiligung mehrerer Drittmittelvorhaben.
Prof. Dr. Hartmut Aden ist seit 2009 Professor an der Hochschule für Wirtschaft und Recht Berlin, seit 2016 Professur für Öffentliches Recht, Europarecht, Politik- und Verwaltungswissenschaft. Er war von 2016 bis 2020 stv. Direktor des Forschungsinstituts für Öffentliche und Private Sicherheit (FÖPS Berlin) der HWR, bevor er 2020 Vizepräsident für Forschung und Transfer der HWR Berlin wurde. Er lehrt und forscht zu rechts- und verwaltungswissenschaftlichen Themen sowie zur vergleichenden Policy-Forschung. Themenschwerpunkte: Accountability, Menschenrechte, Datenschutz, Polizei-, Versammlungs- und Umweltrecht. Seine Forschungsprojekte befassen sich vorwiegend mit den Schnittstellen zwischen Recht, Politik und Verwaltung, auch aus europäischer und internationaler Perspektive.
Dr. Jan Fährmann ist Jurist und Kriminologe. Nach einer Tätigkeit in der Strafverteidigung arbeitet er aktuell im Forschungsinstitut für öffentliche und private Sicherheit (FÖPS Berlin) an der HWR Berlin, an der er auch als Dozent tätig ist. Seine Forschungsschwerpunkte liegen im Polizei-, Strafprozess-. Strafvollzugs-, Datenschutz- und Betäubungsmittelrecht. In Forschungsprojekten befasst er sich vorwiegend mit den Schnittstellen zwischen Recht und Technik.
Özlem Karasoy, Gülcan Kilci and Martin Degeling
Mit der Datenschutzgrundverordnung wurde das Recht auf Datenübertragbarkeit eingeführt. Die Erwartungen an das Recht auf Datenübertragung sind, dass es die informationelle Selbstbestimmung der Einzelnen stärken und Netzwerk-Effekte verringern kann. Basierend auf zwei qualitativen Studien mit Betroffenen und Unternehmen ziehen wir eine erste Bilanz. Unsere Ergebnisse zeigen, dass das Recht bisher in der Praxis kaum Relevanz hat. Aufgrund der geringen Nachfrage zögern Unternehmen Schnittstellen bereitzustellen und Anfragen werden häufig per Hand beantwortet. Die Betroffenen wiederum sehen zwar theoretisch die Vorteile, aber Dienste, die den Import von Daten der ein oder anderen Plattform erlauben sind rar. Um die gewünschten Effekte zu erreichen braucht es einheitliche Vorgaben zu Formaten und Schnittstellen, die auch eingefordert werden, sowie Forschung zur sicheren und nutzer:innenfreundlichen Portalen.
Özlem Karasoy studierte Angewandte Informatik an der Ruhr-Universität Bochum und erlangte 2019 ihren Bachelor-Abschluss. In ihrer Bachelorarbeit beschäftigte sie sich mit den Umsetzungsstrategien für das Recht auf Datenportabilität nach Datenschutzgrundverordnung in Unternehmen. Direkt nach ihrem Abschluss absolvierte sie ein Orientierungspraktikum als Datenschutzkoordinatorin. Aktuell ist Özlem Karasoy auf der Suche nach einer Anstellung im Bereich Datenschutz.
Gülcan Turgut absolvierte 2020 ihren Bachelor-Abschluss in Angewandter Informatik an der Ruhr-Universität in Bochum. In ihrer Bachelorarbeit mit dem Titel “Die Umsetzung der Datenportabilität nach der Datenschutzgrundverordnung und ihre Tauglichkeit aus Sicht des Betroffenen” untersuchte sie die Tauglichkeit des Rechtes in ihrer Umsetzung für die EU Bürger. Derzeit ist sie auf der Suche nach einem Einstieg ins Arbeitsleben.
Dr. Martin Degeling ist wissenschaftlicher Mitarbeiter am Lehrstuhl für Systemsicherheit des Horst Görtz Instituts für IT Sicherheit der Ruhr Universität Bochum. In seinen Forschungsarbeiten im Bereich Usable Privacy and Security untersucht er die Vor- und Nachteile verschiedener Transparenz- und Kontrollmechanismen. Zuletzt hat er an mehrere Studien mitgewirkt, die die Auswirkungen der Datenschutzgrundverordnung auf Webseiten untersucht haben.
Michael Kreutzer, Linda Schreiber and Hervais Simo Fhom
In den letzten Jahren hat die Popularität von mobilen Learning-Apps für Kinder und Minderjährigen stark zugenommen – Insbesondere im Kontext der aktuell herrschenden Corona-Pandemie in dem der Schulbetrieb zuletzt massiv eingeschränkt werden musste. Im Rahmen dieses Beitrags untersuchen wir, inwieweit Android Learning Apps vor dem Hintergrund der DSGVO, die Privatheit ihrer Nutzenden gewährleisten bzw. Anforderungen an Datensicherheit erfüllen. Die Datengrundlage für die Untersuchung besteht aus 197 aus dem Google Play-Store. Die Analyse unterteilt sich in 2 Schritte: die grobgranulare und feingranulare Analyse. Die grobgranulare Analyse befasst sich mit Beobachtungen und statistischen Erkenntnissen, welche direkt aus den bereits gesammelten Metadaten der Applikationen ersichtlich sind. Weiterhin werden die Ergebnisse hinsichtlich Datensicherheit und Cybersicherheit kritisch hinterfragt, sodass Metadaten bezüglich Datenschutzerklärung und Berechtigungen eingestuft werden. Die feingranulare Analyse baut auf der grobgranularen Analyse auf. Hierbei wird die App Software mittels Tools zur statischen und dynamischen Analyse genauer betrachtet. Des Weiteren wird die Applikation auf schädliche Software wie Malware oder Viren untersucht werden. Zuletzt werden das Vorhandensein und die Qualität von Maßnahmen zur Absicherung des Datenverkehrs der ausgewählten Applikationen untersucht bzw. bewertet.
Michael Kreutzer forscht und publiziert seit mehr als 20 Jahren zu Fragestellungen des technischen Privatsphärenschutzes und der IT-Sicherheit. Bereits 2002 publizierte er in Mitautorschaft zu „Pervasive privacy with identity management“ und 2003 entwickelte er das Angreifermodell „The Freiburg Privacy Diamond: An Attacker Model for a Mobile Computing Environment” mit. Er engagierte sich für die Ringvorlesung „Privacy by Design‘ als technisches und gesellschaftliches Konstruktionsprinzip“. Seit 2015 verantwortet er beim Fraunhofer-Institut für Sichere Informationstechnologie (SIT) den Bereich Internationalisierung und strategische Industriebeziehungen. Michael Kreutzer leitete 2017 – 2019 das interdisziplinäre Forschungsprojekt „DORIAN – Desinformation aufdecken und bekämpfen“.
Linda Schreiber ist wissenschaftliche Referentin in der Geschäftsstelle des Nationalen Forschungszentrums für angewandte Cyber-sicherheit am Fraunhofer SIT. Sie hat Informationsrecht (LL.B.) und Internationales Lizenzrecht (LL.M.) an der Hochschule Darmstadt, sowie Innovation, Technology and the Law an der University of Edinburgh studiert. Sie verfügt über Erfahrungen im Bereich IT-Vertragsgestaltung und Open Source Compliance.
Hervais Simo ist wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Sichere Informationstechnologie SIT in Darmstadt. Seine Forschungsschwerpunkte liegen in den Bereichen Privacy Engineering, Cybersecurity und Applied Machine Learning. Konkret geht es ihm darum, neue Technologien zur Verbesserung der Privatsphäre und Transparenz für mobile und verteilte Systeme zu entwickeln und in die Praxis umzusetzen. Hervais hat an der Technischen Universität Darmstadt Informatik studiert und ist Mitglied im Forum Privatheit.
Irmhild Rogalla and Tilla Reichert
Der geplante Beitrag hat drei Teile: Zunächst wird an konkreten Beispielen gezeigt, dass die digitale Welt für Menschen mit Behinderungen nicht problemlos zugänglich ist und oft Konflikte zwischen Accessibility und Privacy besteht. Die Ursachen dafür liegen früh und tief in den Entwicklungsprozessen moderner IT, in mangelndem Bewusstsein wie fehlendem Wissen um entsprechende Anforderungen. Eine Lösung bietet der Europäische Standard EN 16234-1:2019 „e-Competence Framework (e-CF) – A common European Framework for ICT Professionals“. In seiner neuesten Fassung werden u.a. Accessibility und Privacy besonders hervorgehoben und alle IT-Fach- und Führungskräfte zu ihrer Berücksichtigung verpflichtet.
Dr. Irmhild Rogalla ist Leiterin des Instituts für praktische Interdisziplinarität (Institut PI, Berlin). Das Institut PI forscht, entwickelt und berät zum Thema Digitalisierung und Arbeit,
– zu Entwicklungs- und Innovationsprozessen ‚in‘ der IT, insbesondere durch Technikfolgenabschätzung;
– zu Anwendungs- und Einsatzbereich ‚von‘ IT, insbesondere in High-Tech-Bereichen (aktuell: Internet of Things, cyberphysische Systeme, Data Science und Analytics), aber auch in Alltag und Gesellschaft;
– zur Gestaltung ‚mit‘ IT, insbesondere von Arbeitsprozessen, Kompetenzentwicklung sowie „Digitaler Teilhabe und Inklusion“.
Frau Dr. Rogalla ist ertaubt und verfügt über vielfältige eigene Erfahrungen mit der Nutzung digitaler Technologien zur Teilhabe in allen Lebensbereichen.
Tilla Reichert studierte Deaf Studies und Gebärdensprachdolmetschen an der Humboldt Universität zu Berlin. Neben ihrer Tätigkeit als Gebärdensprachdolmetscherin wirkt sie als wissenschaftliche Mitarbeiterin im Institut für praktische Interdisziplinarität (Institut PI, Berlin) schwerpunktmäßig im Bereich Accessibility-Aspekte digitaler Technologien sowie Digitale Teilhabe und Inklusion. Ihre Promotion beschäftigt sich mit den Herausforderungen des Dolmetschens für taube Akademiker*Innen bzw. Professionelle.
Judith Simon
Die Listen mit Werte und Prinzipien, welche bei der Entwicklung von Software im Allgemeinen und Künstlicher Intelligenz im Speziellen berücksichtigt werden sollen, sind mittlerweile lang und divers: Privatheit und Sicherheit, Gerechtigkeit und Schutz vor Diskriminierung, Nachvollziehbarkeit und Transparenz, Freiheit und Autonomie – all dies sind mittlerweile Desiderate guter Software. Es stellt sich jedoch die Frage, wie genau diese Werte und Prinzipien, aber auch Grundrechte, in komplexen Datenökosystemen zu realisieren sind. Mindestens drei Aspekte sind hier zu bedenken: 1) die Notwendigkeit und Schwierigkeit abstrakte Werte in Code zu übersetzen, 2) die Notwendigkeit und Schwierigkeit der Abwägung zwischen verschiedenen Werten sowie deren je spezifischer Operationalisierung 3) die sozio-technisch verteilten Handlungsmöglichkeiten und damit die (ungleich) verteilte Gestaltungsmacht verschiedener Akteuren. Diese Herausforderungen analysierend, werde ich – insbesondere in Bezug auf Gerechtigkeit, Bias und Diskriminierung – die Möglichkeiten und Grenzen werte-orientierter Technikgestaltung beleuchten.
Judith Simon ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg und hat zuvor im In- und Ausland zu Themen aus der Philosophie, Wissenschaftstheorie und Technikfolgenabschätzung geforscht. Sie beschäftigt sich vor allem mit der Verschränkung ethischer, erkenntnistheoretischer und politischer Fragen im Kontext von Big Data, KI und Digitalisierung. Judith Simon ist Mitglied des Deutschen Ethikrats, sowie zahlreicher weiterer Gremien der wissenschaftlichen Politikberatung. Sie war auch Mitglied der Datenethikkommission der Bundesregierung (2018-2019). Im Juni 2020 erschien ihr Routledge Handbook of Trust and Philosophy.
Aline Blankertz
Europäische und deutsche Gesetzgeber:innen und Behörden sind sich einig, dass sie Wettbewerb fördern und die negativen Folgen von Marktkonzentration begrenzen wollen. Dabei wird oft unzureichend beachtet, welche Auswirkungen fehlender Wettbewerb auch auf die Privatsphäre haben kann. Dies gilt beispielsweise für marktbeherrschenden Plattformen, die eine vermeintlich freiwillige Einwilligung in Praktiken umfassender Datensammlung einfordern, und für Unternehmenszusammenschlüsse, die bestehende Datenprofile oft erheblich erweitern. Der Vortrag erläutert, inwiefern Wettbewerb den Datenschutz auf Märkten beeinflusst und wie Wettbewerbspolitik Privatsphäre als Parameter des Wettbewerbs berücksichtigen kann.
Aline Blankertz leitet das Projekt „Datenökonomie“ der Stiftung Neue Verantwortung, einem unabhängigen Think Tank an der Schnittstelle zwischen Technologie und Gesellschaft. Darin untersucht sie ökonomische, technische und gesellschaftliche Fragestellungen, um innovative datenpolitische Handlungsempfehlungen zu entwickeln. Sie arbeitet seit einigen Jahren zu verschiedenen Themen der Datenökonomie. Vor der Stiftung Neue Verantwortung leitete Aline bei der wirtschaftswissenschaftlichen Beratung Oxera Analysen zur Plattformökonomie, Datenschutz, Algorithmen, Fairness in E-Commerce und Intermediärshaftung für u.a. Google, Skyscanner und die englische Verbraucherorganisation Which?.
Lorrie Cranor
Privacy laws and regulations grant some data subject rights that in practice end up being exercised primarily through website or app user interfaces. However, too often, these user interfaces suffer from usability deficiencies ranging from being difficult to find, hard to understand, or time-consuming to use, to being deceptive and dangerously misleading. I will argue that an emphasis on meeting legal and regulatory obligations is not sufficient to create privacy interfaces that are usable and useful for users. I will provide insights into the reasons why it can be difficult to design privacy interfaces that are usable and useful and suggest user-centric approaches to designing privacy interfaces that better meet user needs. I’ll discuss some of our research along these lines at Carnegie Mellon University including our evaluation of the AdChoices icon and website opt-out mechanisms; our work on designing and evaluating privacy icons and link text to indicate where users can find privacy choice mechanisms on websites; and our design and evaluation of privacy “nutrition” labels for websites, mobile apps, and IoT devices. I will further argue that even with well-designed interfaces, data subjects may still be confronted with an overwhelming number of privacy choices and that automated tools are needed to reduce the burden on individuals to constantly make privacy decisions.
Lorrie Faith Cranor is the Director and Bosch Distinguished Professor of the CyLab Security and Privacy Institute and FORE Systems Professor of Computer Science and of Engineering and Public Policy at Carnegie Mellon University. She also directs the CyLab Usable Privacy and Security Laboratory (CUPS) and co-directs the MSIT-Privacy Engineering masters program. In 2016 she served as Chief Technologist at the US Federal Trade Commission. She co-founded Wombat Security Technologies, a security awareness training company that was acquired by Proofpoint. She is a fellow of the ACM and IEEE and a member of the ACM CHI Academy.
Carsten Ochs
Dass wertorientierte Technikgestaltung kaum umhinkommt, die gesellschaftsstrukturellen Bedingungen ihrer eigenen Genese mit zu reflektieren, ist bekannt. Der Vortrag überträgt diese Einsicht auf den Bereich der Privatheit, indem er die historisch entwickelten strukturellen Konstellationen rekonstruiert, aus denen sich verschiedene Formen der (informationellen) Privatheit in unterschiedlichen Vergesellschaftungsphasen der Moderne jeweils herausgeschält haben. Bei den in diesem Zuge identifizierten Privatheitsformen handelt es sich um a.) Ehrschutz/Reputation Management; b.) Rückzug; sowie c.) Individuelle Informationskontrolle. Basierend auf einer solchen Genealogie informationeller Privatheitspraktiken werden in einem abschließenden Schritt die strukturellen Treiber zeitgenössischer Formen der informationellen Privatheit herausgearbeitet, womit schließlich die gesellschaftsstrukturellen Bedingungen erkennbar werden, die zeitgenössische Technikgestaltung zu reflektieren gehalten ist.
Dr. Carsten Ochs ist seit 2014 Postdoc an der Universität Kassel, Fachgebiet Soziologische Theorie, und Mitarbeiter im Projekt „Forum Privatheit.“ Er befasst sich seit bald zwei Jahrzehnten mit den soziokulturellen Effekten und Implikationen von Digitalisierungsprozessen. Nach dem Studium (Frankfurt/M., London) untersuchte er in seiner Dissertation (Gießen) Digitalisierungsprozesse in Pakistan. Seit 2011 ist er verstärkt mit Privatheit befasst, zunächst an der TU Darmstadt im Projekt „Internet Privacy“, später am European Center for Security and Privacy by Design. Seine Publikationen umfassen sowohl empirische, als auch theoretische und historische Arbeiten zur Anthropologie und Soziologie von Digitalisierung und Privatheit, sowie zu epistemologischen und gesellschaftsstrukturellen Fragen.
Fabian Pittroff
Personalisierung ist eine zentrale Strategie in der digitalen Welt. In sozialen Netzen sammeln und verteilen Nutzer:innen persönliche Fragmente aus ihrem Leben, während Plattform-Unternehmen mit deren Hilfe ihre Angebote personalisieren. Diese Zirkel der Personalisierung sind nicht zuletzt eine Herausforderung für Privatheit und Selbstbestimmung, weil sie etablierte Formen von Kontrolle und Autonomie unterlaufen. Hier ist es hilfreich, Personalisierung sozialtheoretisch als einen Modus der Erreichbarkeit zu beschreiben, der sowohl die plattform-ökonomische Adressierung von Nutzer:innen, als auch die Ansprache in persönlichen Beziehungen erfasst. Ergänzt durch Ergebnisse einer autoethnografischen Studie von Selfie-Praktiken lässt sich so zeigen, wie Nutzer:innen ihre Erreichbarkeit in einem verteilten Geflecht aus Selbst, Smartphone und Plattform aufbauen. In dieser Situation muss neu nach Potenzialen ermächtigender Gestaltung von Infrastrukturen der Personalisierung gefragt werden.
Fabian Pittroff ist wissenschaftlicher Mitarbeiter am Fachgebiet Soziologische Theorie der Universität Kassel. Seine Forschungsschwerpunkte sind die Kultur der Digitalisierung, Soziologien der Subjektivierung und die Zukunft des Privaten. Dafür forscht er zum NSA-Untersuchungsausschuss, dem Internet der Dinge, der modernen Freundschaft und den Praktiken der Selfie-Fotografie. Er ist ehemaliger Mitarbeiter des Forum Privatheit und aktuell assoziierter Doktorand der Forschungsgruppe “Gender/Diversity in Informatics Systems” (GeDIS) und des DFG-Graduiertenkollegs “Privatheit und Vertrauen für mobile Nutzende”.
Judith Meinert and Nicole C. Krämer
Die Nutzung von Smartphones und Tablets ermöglicht auch den Zugang zu Applikationen zum Lernen und Vertiefen von Schulinhalten. Allerdings werden dabei zwangsläufig eine Menge persönlicher Daten gesammelt. Dabei kann es sich um demografische Daten, administrative Informationen, Daten aus Interaktionen und individuelle Daten wie das Vorwissen oder Testergebnisse handeln. Da die Funktionsweise solcher Lernsysteme oftmals intransparent ist, stellt sich die Frage, inwiefern Kinder und Jugendliche die Bedrohung ihrer Privatsphäre in horizontaler (durch die Einblicke von Lehrkräften, Eltern und MitschülerInnen in sensible Leistungsdaten) und vertikaler (durch die kommerzielle Nutzung und Weitergabe an Unternehmen) Hinsicht wahrnehmen. Im Rahmen einer empirischen Befragung von SchülerInnen sowie von Lehrkräften und Eltern wird deshalb untersucht, in welchem Umfang Lernsoftware in den Schulen und Zuhause genutzt wird, und ob Kenntnisse über potenzielle Bedrohungen der persönlichen Daten durch die Speicherung und Weitergabe bei der Nutzung von Lernsoftware empfunden wird und welche Schutzmaßnahmen ergriffen werden, um die eigenen Daten zu schützen.
Dr. Judith Meinert arbeitet als wissenschaftliche Mitarbeiterin am Lehrstuhl für Sozialpsychologie: Medien und Kommunikation an der Universität Duisburg-Essen. Dort forscht sie zu den Themen Social Media Kommunikation sowie Wahrnehmung und Umgang mit Privatheitsrisiken und Schutzansätzen u.a. im Bildungskontext. In ihrer Doktorarbeit untersuchte sie Glaubwürdigkeitsbewertungen von News und politischer Kommunikation in sozialen Medien unter Berücksichtigung zugrunde liegender psychologischer Mechanismen. Zuvor absolvierte Judith Meinert sowohl ihr Master- als auch ihr Bachelorstudium im Fachbereich der angewandte Kognitions- und Medienwissenschaften mit dem Schwerpunkt Psychologie (im Master) an der Universität Duisburg-Essen.
Prof. Dr. Nicole Krämer studierte von 1992 bis 1997 Psychologie an der Universität zu Köln, wo sie von 1998 bis 2007 als wissenschaftliche Ange-stellte und Dozentin mit Gary Bente arbeitete. 2003 / 2004 war sie Dozen-tin an der University of Cambridge. Nach ihrer Habilitation im Jahr 2006 erhielt sie 2007 einen Ruf als Professorin für Sozialpsychologie – Medien und Kommunikation an die Universität Duisburg-Essen in der Fakultät für Ingenieurwissenschaften. Sie forscht zu sozialpsychologischen Aspekten der Mensch-Technik-Interaktion und der computervermittelten Kommunikation. Ein besonderer Schwerpunkt liegt dabei auf dem Umgang mit und der Wir-kung von Social Media sowie der Interaktion mit Robotern und Agenten. Seit 2017 ist sie Mitglied im „Forum Privatheit“.
Matthias Marx and Leo Krüger
Die Vision von Freifunk ist die Verbreitung freier Netze, die Demokratisierung der Kommunikationsmedien und die Förderung lokaler Sozialstrukturen. Freifunk möchte ein unabhängiges Netz in der Hand seiner Nutzer*innen aufbauen und durch die Vernetzung ganzer Stadtteile der digitalen Spaltung entgegenwirken. Zwei Freifunker geben Einblicke in eine lokale Freifunk-Initiative. Sie beschreiben, wie sich die Initiative organisiert und geben einen kurzen geschichtlichen Überblick. Die Vortragenden stellen dar, wie die Initiative wuchs, sich professionalisierte und sich gelegentlich auch gegen eine Kommerzialisierung wehrte. Dabei blicken die Vortragenden auch auf andere Freifunk- und WLAN-Initiativen in Deutschland, der EU und weltweit.
Matthias Marx studierte Informatik-Ingenieurwesen an der Technischen Universität Hamburg. Seit 2016 arbeitet er als wissenschaftlicher Mitarbeiter am Lehrstuhl für Sicherheit in verteilten Systemen von Prof. Dr. Hannes Federrath an der Universität Hamburg. Dort beschäftigt er sich mit anonymer Kommunikation und mit der IT-Sicherheit von Unternehmen der Hafenwirtschaft. Seit 2012 engagiert er sich bei der Freifunk-Community in Hamburg.
2013 beendete Leo Krüger sein Studium des Informatik-Ingenieurwesens an der Technischen Universität Hamburg (TUHH). Anschließend war er ebendort bis Ende 2019 wissenschaftlicher Mitarbeiter am Institut für Kommunikationsnetze von Prof. Andreas Timm-Giel. Seine Forschung bewegte sich dabei im Bereich der zuverlässigen drahtlosen Sensornetze. Seit 2020 ist Leo Krüger Senior Systems Engineer bei der ZAL Zentrum für Angewandte Luftfahrtforschung GmbH in Hamburg-Finkenwerder und arbeitet hier in Industrie- und Forschungsprojekten zu Themen rund um die intelligente, digitale Flugzeugkabine. In seiner Freizeit engagiert sich Leo Krüger seit 2013 bei der nicht-kommerziellen Initiative Freifunk Hamburg. Insbesondere hat er hier den Umbau hin zu einer Einstufung als Internetprovider organisatorisch und technisch realisiert. Auch bei der Internetversorgung von Unterkünften für Geflüchtete hat er sich eingebracht.
Martin Steinebach
Uploadfilter sind in der jüngeren Vergangenheit Gegenstand von zahlreichen Diskussionen geworden, die teilweise verschiedene Ausprägungen dieser Systeme vermischen und oft nur unzureichend auf die Herausforderungen und Limitierungen eingehen. In diesem Beitrag soll daher das Thema strukturiert werden, um die Möglichkeiten und Risiken, die bei einem Einsatz von Uploadfiltern entstehen, zu strukturieren. Diese Filter können entweder Inhalte wiedererkennen, was vergleichsweise einfach ist und niedrige Fehlerraten aufweist, oder sie sollen auch Ähnlichkeit erkennen können, wodurch die Fehler ansteigen. Wiedererkennen ist eine beispielsweise Aufgabe bei Urheberrechtsverletzungen, Ähnlichkeit bei Hate Speech. Die Fehlerraten reichen dabei vom Promille bei zu zweistelligen Prozenten und haben dadurch deutliche Auswirkungen auf die Praktikabilität und Auswirkungen der Lösungen. So kann ein autonomer Einsatz in sozialen Medien zu einer hohe Anzahl Fehleinschätzungen führen, was wiederum manuelle Kontrolle erfordert.
Martin Steinebach, geboren 1971 in Hanau, studierte von 1992 bis 1999 Informatik an der TU Darmstadt. 1999 wurde er Doktorand am GMD IPSI, 2003 promovierte er an der TU Darmstadt zum Doktor Ingenieur im Fachbereich Informatik mit dem Thema digitaler Audiowasserzeichen. Im Jahre 2007 wechselte er nach der Auflösung des IPSI an das SIT, wo er 2010 die Abteilungsleitung Media Security and Forensics übernahm. Seit November 2016 ist er Honorarprofessor der TU Darmstadt und hält dort unter anderem eine Vorlesung zur Multimedia-Sicherheit. Er ist Autor von über 170 Fachpublikation. Mit seinen Arbeiten am ForBild Projekt erzielte Herr Steinebach gemeinsam mit seinen Kollegen den zweiten Platz beim IT-Sicherheitspreis 2012 der Horst-Görtz Stiftung. Er leitet zahlreiche Projekte zu IT-Forensik und Big-Data Sicherheit für Industrie und die öffentliche Hand.
Thilo Hagendorff
In der Scientific Community der KI-Forscher wird allgemein angenommen, dass der Einfluss der IT-Industrie sowohl auf die Forschenden selbst als auch auf den wissenschaftlichen Prozess stetig zunimmt, seit zahlreiche Unternehmen begonnen haben, eine große Menge an personellen und finanziellen Ressourcen für die KI-Forschung bereitzustellen, um damit auch Standards für Datenschutz und Privatheit in diesem Bereich vorbestimmen zu können. Die konkreten ethischen Implikationen und das quantitative Ausmaß dieses Einflusses sind jedoch bislang wenig untersucht. Zu diesem Zweck haben wir nicht nur eine fundierte ethische Analyse des Bereichs durchgeführt, sondern auch alle Aufsätze der wichtigsten KI-Konferenzen NeurIPS, CVPR und ICML der letzten 5 Jahre – insgesamt fast 11.000 Papiere – ausgewertet. Die Ergebnisse wurden vor dem Hintergrund verwandter Forschungsarbeiten aus der Ethik und anderen Disziplinen reflektiert. Zum ersten Mal haben wir so den Einfluss der Industrie auf die KI-Forschergemeinschaft quantitativ analysiert.
Dr. Thilo Hagendorff ist Medien- und Technikethiker. Er promivierte 2013 mit einer kulturwissenschaftlichen Arbeit. Seit 2013 ist er wissenschaftlicher Mitarbeiter am IZEW. Seit 2019 arbeitet er im Exzellenz-Cluster “Machine Learning: New Perspectives for Science”. Darüber hinaus ist er Lehrbeauftragter an der Universität Tübingen sowie am Hasso-Plattner-Institut der Universität Potsdam.
Alina Khayretdinova, Michael Kubach, Rachelle Sellung and Heiko Roßnagel
New approaches to identity management based on technologies such as blockchain and distributed ledgers are promoted as a chance to give users full control over their own identity data. Despite being often called the future of digital identity management, Decentralized Identity Management (DIdM) and Self-sovereign Identities (SSI) are still facing a number of challenges, usability being a major one: their concepts are too sophisticated for users and do not fit their mental models. We address this by conducting a study that analyses and evaluates the usability and practical applicability of some of the most advanced DIdM solutions. The results of the user tests reveal existing usability issues and outline the way they deprive end-users of experiencing the entire range of claimed privacy and security benefits of blockchain-based identity solutions.
Alina Khayretdinova ist wissenschaftliche Mitarbeiterin am Institut für Arbeitswissenschaft und Technologiemanagement (IAT), Universität Stuttgart. Ihre Forschungsschwerpunkte liegen im Bereich Usability und User Experience von Identitätsmanagement-Lösungen und Sprachassistenten. Zuvor absolvierte sie ihr Masterstudium im Fachbereich Computerlinguistik in Stuttgart und ihr Diplomstudium im Bereich Übersetzungstheorie in Ufa (Russland).
Dr. Michael Kubach studied politics and administrative science as well as management at the universities of Konstanz, Göttingen and Lille. He received a PhD in economics at the Georg-August-University Göttingen. Since 2013, Michael Kubach is working in the Fraunhofer IAO Team Identity Management on issues around viable security, where he takes a user oriented and a socioeconomic perspective. Michael Kubach has worked in several European and national cooperative research projects such as the EC-funded eSSIF-TRAIN, LIGHTest and FutureID as well as in national projects such as ONCE, ENTOURAGE, and SkIDentity. Moreover, he has been consulting international corporations and NGOs. His research interests focus on the areas of economic aspects of IT-security, privacy and identity management.
Rachelle Sellung is a senior scientist the Fraunhofer Institute for Industrial Engineering IAO. She achieved a Master’s of Science in Economics at the University of Hohenheim in Stuttgart, Germany. As well as, a Bachelor’s of Business Administration in Marketing at the University of Mississippi in the USA. She contributed a socio-economic perspective in the large-scale EU FP7 project FutureID, which developed an identity management infrastructure for Europe. She led University Stuttgart’s contribution in the EU Horizon 2020 project, LIGHTest, which aimed to create a global cross-domain trust infrastructure. Her research interests include the areas of security, identity management, and trust services in emerging technologies (e.g. Blockchain, and SSI).
Dr. Heiko Roßnagel is head of the Competence Team Identity Management at the Fraunhofer Institute for Industrial Engineering IAO. He studied computer science at the TU Darmstadt. He received a PhD in business administration and economics at the Goethe-University Frankfurt. He is currently coordinating the EC-funded H2020 project LIGHTest and has coordinated the FP7 project FutureID. He has been participating in several European and national cooperative research projects such as the EC-funded projects WiTness, FIDIS, SSEDIC, SECUR-ED and national projects such as VeRSiert, VERTRAG, SkIDentity, SANDRA, CUES, IDS and ENTOURAGE. His research interests are in the areas of security, privacy and identity management with a focus on human factors and technology development and adoption.
Florian Platzer, Sandra Wittmer and Martin Steinebach
Eine anonyme Nutzung des Internets wird durch die Verwendung sogenannter „Darknet-Technologien“ wie der Tor-Software ermöglicht und ist gem. Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG grundrechtlich geschützt. Neben zahlreichen positiven Verwendungszwecken verfügen Anonymisierungstechnologien wie die Tor-Software allerdings auch über ein hohes Missbrauchspotential, da sie häufig zur Begehung von Straftaten eingesetzt werden. Vor diesem Hintergrund wendet sich der Beitrag den technischen Möglichkeiten der Strafverfolgung im Tor-Netzwerk zu. Dabei werden Möglichkeiten zur Identifizierung tatverdächtiger Personen vorgestellt und aus rechtlicher Perspektive beurteilt, ob sie von den derzeit existierenden Ermittlungsbefugnissen der Strafverfolgungsbehörden gedeckt wären. Auf diese Weise soll eine Diskussionsgrundlage für Ermittlungen im Tor-Netzwerk geschaffen werden, ohne die Legitimität einer anonymen Internetnutzung grundsätzlich in Frage zu stellen.
Florian Platzer ist wissenschaftlicher Mitarbeiter in der Abteilung Media Security und IT Forensics am Fraunhofer Institut für Sichere Informationstechnologie. Er arbeitet seit Anfang 2019 im interdisziplinären Projekt PANDA (Parallelstrukturen, Aktivitätsformen und Nutzerverhalten im Darknet) für die Disziplin Informatik. Florian Platzer studierte IT-Sicherheit an der Technischen Universität Darmstadt.
Sandra Wittmer schloss ihr Studium der Rechtswissenschaften an der Johann Wolfgang von Goethe-Universität Frankfurt am Main mit dem ersten juristischen Staatsexamen ab. Seit Oktober 2018 ist sie als wissenschaftliche Mitarbeiterin im interdisziplinären Forschungsprojekt „PANDA: Parallelstrukturen, Aktivitätsformen und Nutzerverhalten im Darknet“ tätig und promoviert derzeit an der Universität Osnabrück zum Thema Straftaten und Strafverfolgung im Darknet.
Martin Steinebach, geboren 1971 in Hanau, studierte von 1992 bis 1999 Informatik an der TU Darmstadt. 1999 wurde er Doktorand am GMD IPSI, 2003 promovierte er an der TU Darmstadt zum Doktor Ingenieur im Fachbereich Informatik mit dem Thema digitaler Audiowasserzeichen. Im Jahre 2007 wechselte er nach der Auflösung des IPSI an das SIT, wo er 2010 die Abteilungsleitung Media Security and Forensics übernahm. Seit November 2016 ist er Honorarprofessor der TU Darmstadt und hält dort unter anderem eine Vorlesung zur Multimedia-Sicherheit. Er ist Autor von über 170 Fachpublikation. Mit seinen Arbeiten am ForBild Projekt erzielte Herr Steinebach gemeinsam mit seinen Kollegen den zweiten Platz beim IT-Sicherheitspreis 2012 der Horst-Görtz Stiftung. Er leitet zahlreiche Projekte zu IT-Forensik und Big-Data Sicherheit für Industrie und die öffentliche Hand.
Alexandra Lux and Florian Platzer
Ziel des vorliegenden Beitrags ist die Erstellung einer Anonymitätsmetrik. Dabei liegt der Fokus insbesondere in der Verbindung der technischen, sowie psychologischen Komponenten der Betrachtung. Ausgangssituation ist die Nutzung des Anonymitäts-Netzwerks Tor. So ist das Ziel, die Tor-Nutzergruppe in Bezug auf den Grad der Anonymität und Online-Privatheitskompetenz, sowie Motive und Zweck der Nutzung zu erforschen. Der Grad der Anonymität wird hier an der Schwierigkeit bzw. dem Aufwand, den es für eine Deanonymisierung benötigt, gemessen. In diesem Rahmen wurde eine Online-Befragung der Tor-Nutzergruppe über Tor-spezifische Portale im Clear- und Darknet durchgeführt.
Alexandra Lux ist seit 2017 wissenschaftliche Mitarbeiterin im interdisziplinären Projekt PANDA (Parallelstrukturen, Aktivitätsformen und Nutzerverhalten im Darknet) und promoviert im Fachgebiet Medienpsychologie bei Prof. Sabine Trepte an der Universität Hohenheim. In ihrer Dissertation untersucht sie Kommunikation auf soziale Netzwerkseiten im Darknet. Sie studierte Publizistik- und Kommunikationswissenschaft mit den Nebenfächern Psychologie und Soziologie an der Universität Wien und University of Ottawa.
Florian Platzer ist wissenschaftlicher Mitarbeiter in der Abteilung Media Security und IT Forensics am Fraunhofer Institut für Sichere Informationstechnologie. Er arbeitet seit Anfang 2019 im interdisziplinären Projekt PANDA (Parallelstrukturen, Aktivitätsformen und Nutzerverhalten im Darknet) für die Disziplin Informatik. Florian Platzer studierte IT-Sicherheit an der Technischen Universität Darmstadt.
Ralf Kneuper
Bei der Beurteilung, ob bestimmte Daten anonym sind, wird gemäß DSGVO keine absolute Anonymität gefordert, die also unter allen Umständen und Rahmenbedingungen gegeben wäre, sondern eine relative Anonymität, ausgehend von einer Bewertung der Wahrscheinlichkeit einer Re-Identifizierung. Andererseits handelt es sich bei Daten, die als anonym bewertet wurden, definitionsgemäß nicht mehr um personenbezogene Daten, und sie unterliegen daher auch nicht mehr den Vorgaben des Datenschutzes. Damit gibt es nach einer Bewertung von Daten als anonym keine Einschränkungen, die verhindern könnten, dass die Daten in einen anderen Kontext übertragen werden, in dem sie nicht mehr anonym sind. Dieser Beitrag behandelt daher die Fragestellung inwieweit Datenschutz auch noch eine Rolle spielen sollte, nachdem Daten anonymisiert wurden.
Ralf Kneuper ist seit 2016 Professor für Informatik und Wirtschaftsinformatik an der IUBH Internationale Hochschule im Bereich Fernstudium mit den Schwerpunkten IT-Management, IT-Sicherheit und Datenschutz. Davor hat er ca. 25 Jahre bei verschiedenen IT-Unternehmen sowie als selbständiger Berater für Qualitätsmanagement und Prozessverbesserung in der IT gearbeitet.
Diana Schneider
Die Teilhabeplanung für Menschen mit Behinderung ist ein Instrument der Eingliederungshilfe, um soziale Partizipation und gleichberechtigte Teilnahme am Leben in der Gesellschaft zu fördern, sowie die individuelle Selbstbestimmung zu ermöglichen. In meiner Promotionsstudie möchte ich erfahren, ob und wie ein algorithmisches System zur Entscheidungsunterstützung im Prozess der Teilhabeplanung behilflich sein könnte. Im vorgeschlagenen Beitrag soll daher zunächst auf Basis von 20 leitfadengestützten Interviews mit Leistungsträgern und Leistungserbringern dargelegt werden, wie die Praxis des Dokumentierens aussieht und unter welchen Umständen ggf. Informationen der Menschen mit Behinderungen zurückgehalten und nicht digital notiert werden. Dies soll Ausschluss darauf geben, welche(s) Konzept(e) von Privatheit die interviewten Personen haben. Anschließend sollen die Ergebnisse hinsichtlich ihrer Auswirkung auf die Technikentwicklung diskutiert werden.
Diana Schneider, M.A., studierte Philosophie und Germanistik an der Universität Potsdam sowie Kultur und Technik an der Brandenburgisch Technischen Universität Cottbus-Senftenberg. Seit 2018 ist sie wissenschaftliche Mitarbeiterin am Fachbereich Sozialwesen der FH Bielefeld University of Applied Sciences und Promovendin des Forschungsverbundes NRW Digitale Gesellschaft im Projekt „Maschinelle Entscheidungsunterstützung in wohlfahrtsstaatlichen Institutionen: Nutzungsoptionen, Implikationen und Regulierungsbedarfe (MAEWIN)“. In ihrer Promotion untersucht sie, was plausible Zukunftsbilder für den Einsatz von algorithmischen Entscheidungsunterstützungssystemen am Beispiel der Teilhabeplanung in Deutschland sein können.
Viktoria Rappold and Clemens Arzt
Förderausschreibungen zur zivilen Sicherheitsforschung dienen vorrangig der Entwicklung neuer Technologien für BOS und setzen zunehmend die Integration ethischer, rechtlicher und sozialer Implikationen (ELSI) voraus. Im Vortrag werden grundsätzliche Risiken der Beteiligung an technologieorientierter Sicherheitsforschung thematisiert, u.a. Versicherheitlichungsprozesse, Dual-Use sowie das Verständnis der Anwendungsorientierung als Ausrichtung an BOS-Bedarfen. Auch wird das derzeitige Gestaltungspotenzial von ELSI und ob dieses verantwortungsvoller Forschung und Entwicklung gerecht werden kann, hinterfragt. Hieraus ergeben sich Forderungen für Zusammensetzung, Selbstverständnis und Arbeitsweise von Projektkonsortien. Es wird ein Zwischenstand über Potenzial und Risiken der rechtswissenschaftlichen Beteiligung an ziviler Sicherheitsforschung hinsichtlich neuer Technologien für polizeiliche Maßnahmen dargestellt und gefragt, ob diese bei bestehenden gesellschaftlichen Risiken gerechtfertigt ist.
Viktoria Rappold ist Juristin und Kriminologin. Seit 2017 ist sie wissenschaftliche Mitarbeiterin am FÖPS Berlin, zuvor war sie als Referentin in einer Nichtregierungsorganisation tätig. An der HWR Berlin lehrt sie Grund- und Menschenrechte, Kriminologie und Jugendstrafrecht. Sie promoviert an der Universität Regensburg und HWR Berlin zu Strafverfahren nach § 340 StGB.
Prof. Dr. Clemens Arzt ist Professor für Staats- und Verwaltungsrecht mit dem Schwerpunkt Polizei- und Ordnungsrecht an der HWR Berlin und Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin). Seine Forschungsgebiete sind insbesondere deutsches und ausländisches Polizei- und Versammlungsrecht, Schutz kritischer Infrastrukturen und Recht der Fahrzeugautomatisierung. Am interdisziplinär ausgerichteten FÖPS Berlin leitet er die rechtswissenschaftliche Beteiligung mehrerer Drittmittelvorhaben.
Peter Biniok
Die Ausgangsfrage der Tagung nach den Gestaltungsoptionen von digitalen Technologien, um Selbstbestimmung und Privatheit zu gewährleisten, wird im Beitrag zugeschnitten auf die anwendende Praxis. Im Fokus stehen Nutzungssituationen und Nutzungskontexte der individuellen Nutzer*innen. Wegleitend ist die Frage, was die infrastrukturellen – mit anderen Worten: soziotechnischen – Voraussetzungen für digitale Teilhabe und digitale Souveränität sind. Es wird die These vertreten, dass ein Schutzbedarf von Nutzer*innen neben bspw. Gesetzgebung auch dadurch zu erreichen ist, dass die Individuen zum kompetenten Einsatz ermächtigt werden. Selbstermächtigung von Nutzer*innen geht über technische Befähigung hinaus und betont die Reflexion und Bewertung des eigenen Handelns mit digitaler Technik. Unter Rekurs auf den Grundgedanken eines holistischen Datenschutzes und den Ansatz infrastruktureller Emanzipation wird diskutiert, wie das Agieren der Individuen in digitalen Kontexten begleitet werden kann.
Dr. phil. Peter Biniok hat Informatik und (Technik-)Soziologie an der Technischen Universität Berlin studiert und an der Universität Luzern promoviert. Er war lange Zeit in grenzüberschreitenden Hochschulprojekten und als freier Mitarbeiter tätig und widmet sich aktuell sozialwissenschaftlicher Praxisforschung. Seine Forschungsschwerpunkte sind Digitalisierung und gesellschaftlicher Wandel, Wissenschafts- und Technikentwicklung sowie Mensch-Maschine-Interaktionen. Die letzten Veröffentlichungen behandelten die Themen „digitale Solidarität“, „digitale Dienstbarkeit“ und „holistischer Datenschutz“.
Robert Landwirth
Die öffentliche Debatte positioniert Darknets zwischen zwei Narrativen: Drogenverkauf und pädosexuelle Inhalte auf der einen, die Liberalisierung autoritärer Staaten auf der anderen Seite — vielleicht noch der Hacker und sein Kreditkartenklau dazwischen. Mit wenigen Ausnahmen, die alternative Blickwinkel einnehmen, kommt die Mehrzahl der empirischen Darknetforscher*innen zu dem Schluss, dass die dort auffindbaren Inhalte problematischen Charakters sind. Vornehmlich geht es hierbei um das Tor-Netzwerk und so wird in Konsequenz dieser Ergebnisse gefordert, hidden services (also das Anbieten von anonymen Diensten) zu untersagen, während das anonyme Browsen weiterhin erlaubt bleiben soll. Das demokratietheoretische Argument, dass Darknets positive Auswirkungen für die Gesellschaft haben, da sie die Ausdrucksfreiheit stützen, bleibt dabei Intuition. Lässt sich diese Intuition substantialisieren?
Robert Landwirth studierte Soziologie, Psychologie und Philosophie an der Friedrich-Alexander Universität Erlangen-Nürnberg sowie an der Duke University. Seine Forschungsschwerpunkte sind Internetkommunikation und Indentitätsbildung mit einem Interessenschwerpunkt in soziologischer Theorie. Momentan arbeitet er als wissenschaftlicher Mitarbeiter im BMBF gefördeten, interdisziplinären Forschungsprojekt PANDA (https://panda-projekt.org) am Lehrstuhl für Sicherheit in der Informationstechnik der TU Darmstadt. Im Rahmen des Projekts ist er für die soziologische Erforschung von Darknets zuständig und beschäftigt sich mit den Auswirkungen technischer Anonymität auf die Kommunikationsdynamik online. In seiner Dissertation versucht er die Grundzüge einer Sozialtheorie für Internetkommunikation zu entwickeln.
Alexander Schäfer
Bedingungen informationeller Selbstbestimmung – Um das Recht auf Informationelle Selbstbestimmung von Staatswegen her umsetzen zu können, müssen Staatsorgane selbst auch eine wirksame Weisungsbefugnis gegenüber operierenden Unternehmen aufweisen. Der Entzug der Gerichtsbarkeit mancher Organisationen stellt hierbei eine Herausforderung dar. Dieser Beitrag thematisiert infrastrukturelle Hürden, die einer Umsetzung des Rechts auf Informationelle Selbstbestimmung langfristig entgegenstehen können. Darauf aufbauend werden entsprechende Lösungsansätze aufgezeigt.
Alexander Schäfer ist studierter Wirtschaftsingenieur mit der Vertiefungsrichtung Elektro- und Informationstechnik. Er arbeitete in mehrere Unternehmen im Bereich der Digitalisierung. In den letzten Jahren setzte er sich verstärkt mit den Themen der langfristigen Unternehmensgestaltung hinsichtlich des Innovationsmanagements auseinander.
Murat Karaboga
Die fortschreitende Digitalisierung umfasst immer mehr Bereiche des Alltagslebens. Die damit verbundenen Gefahren waren ein wesentlicher Grund für die Entstehung der Datenschutz-Grundverordnung (DSGVO), mit der die Ermächtigung des Individuums verfolgt wurde. Ähnlich wie schon in der Vergangenheit in anderen Bereichen (etwa Verbraucherschutz oder Umweltschutz), ist angesichts der komplexen Digitalisierungsprozesse in den letzten Jahren in zunehmendem Maße die Frage in den Vordergrund gerückt, ob und inwiefern sich ein wirksamer Datenschutz auf Grundlage eines individualistischen Konzepts in Form der Ermächtigung des Individuums realisieren lässt. Vor dem Hintergrund dieser Debatten diskutiert der vorliegende Beitrag anhand ausgewählter Teilbereiche des Datenschutzrechts Lösungsansätze, die über die Fokussierung auf das Individuum hinausgehen und die als eine Art Mittelweg zwischen individualistischen und kollektivistischen Ansätzen verstanden werden können.
Murat Karaboga, M. A. studierte Politikwissenschaften, Philosophie und Pädagogik. Seit 2014 ist er am Fraunhofer-Institut für System- und Innovationsforschung ISI wissenschaftlicher Mitarbeiter im Geschäftsfeld Informations- und Kommunikationstechnologien in der Abteilung Neue Technologien. Seine Arbeitsschwerpunkte liegen in der Policy-Analyse und der Analyse von Governance- und Akteursstrukturen, insb. im Hinblick auf den Schutz personenbezogener Daten im Kontext neuer Technologien. In seiner Dissertation hat er die Entstehung der Datenschutz-Grundverordnung unter Berücksichtigung der Debatten rund um einen individualistischen und kollektivistischen Datenschutz untersucht.
Jan Bartsch, Tobias Dehling, Florian Lauf, Sven Meister and Ali Sunyaev
During interaction with today’s internet services and platform ecosystems, consumer data is often harvested and shared without their consent; that is, consumers are no longer sovereigns of their own data. Due to the rapid and abundant nature of interactions in today’s platform ecosystems, manual consent management is impractical. To support development of semiautomated solutions for this problem, we investigate the use of policy definition languages as machine-readable and enforceable mechanism to reestablish data sovereignty for consumers. We conducted an expert literature review of the capabilities of policy definition languages developed for pertinent application scenarios (e.g., for access control in cloud computing). We consolidate extant literature into a framework of the chances and challenges of leveraging policy definition languages as central building blocks for data sovereignty in platform ecosystems.
Jan Bartsch is a research associate in the Critical Information Infrastructures (cii) research group at the Institute of Applied Informatics and Formal Description Methods (AIFB) of the Karlsruhe Institute of Technology (KIT) in Germany. He earned his bachelor’s degree in 2016 and his master’s degree in 2020 in computer science at KIT. Jan Bartsch is interested in schemes for access control and other aspects of IT security and its application. He is also interested in the behavior of distributed and decentralized systems with heterogeneous agents.
Tobias Dehling is a postdoctoral researcher at the Institute of Applied Informatics and Formal Description Methods (AIFB) of the Karlsruhe Institute of Technology (KIT) in Germany. His research interests are information privacy in consumer information systems, information systems for patient-centered health care, and distributed ledger technologies. Tobias received his PhD in Information Systems in 2017 at the University of Kassel, Germany, and his master’s degree (Diploma) in Information Systems in 2012 at the University of Cologne, Germany. His research has been published in renowned international outlets (e.g., ACM Computing Surveys, Electronic Markets, JMIR mHealth uHealth, Journal of the American Medical Informatics Association).
Florian Lauf is scientist in the department of “Healthcare” at the Fraunhofer Institute for Software and Systems Engineering ISST in Dortmund, Germany. Previously to this, he finished his studies in Applied Computer Science with the emphasis on e-services engineering and robotics at the TU Dortmund. In the context of his master thesis, Mister Lauf modelled a reliable artificial hearth control and thereby discovered his interest in the combination of computer science and medicine. In a digitalizing world, personal data are becoming increasingly important. Therefore, Mister Lauf is engaged in current research topics at Fraunhofer ISST concerning the data sovereignty, the Digital Life Journey and the International Data Spaces.
Dr. Sven Meister is heading the department “Healthcare” at the Fraunhofer Institute for Software and Systems Engineering in Dortmund, Germany. He holds a diploma degree and doctorate in computer science, focused on the procession of bio-medical data. Since 15 years, Sven Meister is driving the research on disruptive digital innovation in healthcare forward. As data has become more and more important, actual projects are asking for data-driven solution as well as strategies for real-world implementation of them. He is a board member of MedEcon Ruhr e.V. and SMITH from German Medical Informatics Initiative as well as head of the Medical Data Space at the International Data Spaces Association e.V.
Ali Sunyaev is Director of the Institute of Applied Informatics and Formal Description Methods (AIFB) and Professor at the Karlsruhe Institute of Technology (KIT) in Germany. His research interests are reliable and purposeful software and information systems within the scope of internet technologies, distributed ledger technology, trustworthy AI, auditing/certification of IT, and innovative health IT applications. His research accounts for the multifaceted use contexts of digital technologies with research on human behavior affecting IT and vice versa. Ali Sunyaev has received several awards for his research. At KIT, Ali Sunyaev is leading the Critical Information Infrastructures (cii) research group and acts as a mentor for numerous start-ups.
Mandy Goram, Dirk Veiel, Tobias Dehling and Ali Sunyaev
Sophisticated techniques have been developed to determine user preferences and display personalized content. Companies collect large amounts of information about users in order to better display tailored content and account for to user contexts. When providing privacy information, personalization of content and users’ privacy needs play however not an important role for providers. Privacy information provision could be enhanced through personalization strategies. Our talk focuses on the detection of preferences and information needs for personalized privacy information provision. We present three selected and prototypically implemented approaches for personalized provision of privacy information that are orthogonal to each other and suitable for detection of users’ privacy preferences based on implicit or explicit user feedback. The performance of a detection approach depends on the users’ experience with and knowledge about privacy information and privacy practices.
Mandy Goram is a research associate in the Critical Information Infrastructures (cii) research group at the Institute of Applied Informatics and Formal Description Methods (AIFB) of the Karlsruhe Institute of Technology (KIT) in Germany. She received her master’s degree in Computer Science in 2018 at the FernUniversität in Hagen. Her research interests include the development of legally compliant AI platforms and intelligent personalized assistance systems.
Dr.-Ing. Dirk Veiel is a senior researcher at the chair of cooperative systems at the FernUniversität in Hagen. His research focuses on realizing intelligent group support systems (e.g. using context-based adaptation) in different domains (e.g., community support systems for elderly or learning environments). One of the goals is to support stakeholders in developing solutions that are compliant to the law.
Tobias Dehling is a postdoctoral researcher at the Institute of Applied Informatics and Formal Description Methods (AIFB) of the Karlsruhe Institute of Technology (KIT) in Germany. His research interests are information privacy in consumer information systems, information systems for patient-centered health care, and distributed ledger technologies. Tobias received his PhD in Information Systems in 2017 at the University of Kassel, Germany, and his master’s degree (Diploma) in Information Systems in 2012 at the University of Cologne, Germany. His research has been published in renowned international outlets (e.g., ACM Computing Surveys, Electronic Markets, JMIR mHealth uHealth, Journal of the American Medical Informatics Association).
Ali Sunyaev is Director of the Institute of Applied Informatics and Formal Description Methods (AIFB) and Professor at the Karlsruhe Institute of Technology (KIT) in Germany. His research interests are reliable and purposeful software and information systems within the scope of internet technologies, distributed ledger technology, trustworthy AI, auditing/certification of IT, and innovative health IT applications. His research accounts for the multifaceted use contexts of digital technologies with research on human behavior affecting IT and vice versa. Ali Sunyaev has received several awards for his research. At KIT, Ali Sunyaev is leading the Critical Information Infrastructures (cii) research group and acts as a mentor for numerous start-ups.
Michael Kreutzer und Johanna Mittermeier
Das Recht auf Nichtwissen ist ein Teil der informationellen Selbstbestimmung. Als Persönlichkeitsschutz wurde es bislang überwiegend aus medizinischer Sicht betrachtet, dort ist es anerkannt und wird angewendet. Durch den Output Maschineller Lernsysteme, die u. A. mit persönlichen Daten trainiert werden, kann das aufgeklärte Recht auf Nichtwissen ebenfalls bedroht werden. Selbstanalysen, Selbstoptimierungsvorschläge und ggf. Hinweise zur Anpassung, die auf diesem Wege erstellt werden, bergen Gefahren für die freie Entfaltung der Persönlichkeit und sozialisatorischer Beziehungen – die vermittelte Information ist irreversibel. Im Vortrag geht es um die Freiheit der Entscheidung, ob das Individuum dies wissen sollen muss oder sich dazu entschließen darf, dies nicht wissen zu wollen.
Michael Kreutzer forscht und publiziert seit mehr als 20 Jahren zu Fragestellungen des technischen Privatsphärenschutzes und der IT-Sicherheit. Bereits 2002 publizierte er in Mitautorschaft zu „Pervasive privacy with identity management“ und 2003 entwickelte er das Angreifermodell „The Freiburg Privacy Diamond: An Attacker Model for a Mobile Computing Environment” mit. Er engagierte sich für die Ringvorlesung „,Privacy by Design‘ als technisches und gesellschaftliches Konstruktionsprinzip“. Seit 2015 verantwortet er beim Fraunhofer-Institut für Sichere Informationstechnologie (SIT) den Bereich Internationalisierung und strategische Industriebeziehungen. Michael Kreutzer leitete 2017 – 2019 das interdisziplinäre Forschungsprojekt „DORIAN – Desinformation aufdecken und bekämpfen“.
Johanna Mittermeier studiert Philosophie und Soziologie an der Technischen Universität Darmstadt. Sie beschäftigt sich schwerpunktmäßig mit der praktischen Philosophie und inspiriert von Prof. Dr. Christoph Hubig, insbesondere mit der Technikphilosophie. Sie betreut die Lehrveranstaltung „Ingenieurwissenschaft & Gesellschaft“ in der Technikphilosophie bei Prof. Dr. Nordmann und ist wiederholt zugleich als Tutorin in derselben tätig. Frau Mittermeier arbeitet am Fraunhofer SIT für das Forum Privatheit.
Werner Bogula
Ergebnisse und Konsequenzen einer ifa-Studie für das Auswärtige Amt – Die anfangs euphorische Einschätzung digitaler Plattformen und Social Media als emanzipative Soft-Power-Instrumente in der Auswärtigen Kultur- und Bildungspolitik (AKBP) wird zunehmend überschattet von Hacks, Sicherheitsproblemen und Daten-missbrauch bei großen Plattformen wie Facebook, Twitter und WhatsApp. Im Rahmen einer Studie für den Arbeitskreis Digitale Freiräume im Auswärtigen Amt wurden im Jahre 2019 vier Bereiche der Bedrohung der individuellen Freiheitsrechte im digitalen Raum herausgearbeitet: 1. Überwachung und Manipulation, 2. Shrinking Spaces, 3. Bedrohung der Zivilgesellschaft und 4. Desinformation. Ausgehend von dieser Analyse, als Studie des Instituts für Auslandsbeziehungen (ifa) veröffentlicht, wurden mögliche europäische Gegenstrategien im Spannungsfeld zwischen Überwachungskapitalismus und Datenautoritarismus erarbeitet sowie angemessene Maßnahmen und Technologien eruiert. Als ein Strategie-Baustein wird das vom Auswärtigen Amt geförderte und in der Umsetzung befindliche Digital Self Defense Center vorgestellt.
Werner Bogula, Digital Analyst und Enabler. Nach Managementerfahrungen in führenden Digitalfirmen und Start-Up-Gründung, 20 Jahre Beratung und Training für internationale Firmen und Institutionen im Bereich Journalismus und Medien. Dadurch im stetigen Kontakt mit Journalist:innen und Aktivist:innen und deren Anforderung an professionelles und sicheres digitales Arbeiten. Lehraufträge u.a. für DW Akademie, Asian College of Journalism und Institute for the Advancement of Journalism in Osteuropa, Asien und Afrika. Sachverständiger im Arbeitskreis Digitale Plattformen des Auswärtigen Amtes im Jahr 2019. Aktuell beim Aufbau eines Digital Self Defense Centers in Kooperation mit der NGO Kiron.
Rahild Neuburger, Mena Teebken and Thomas Hess
Digitale Technologien eröffnen weitreichende Möglichkeiten der individuellen Leistungserfassung und Leistungsauswertung von Mitarbeitern an ihren Arbeitsplätzen. Dadurch eröffnen sich Formen der direkten Kontrolle unabhängig vom jeweiligen physischen Standort (Büro oder virtueller Arbeitsplatz), die gerade in Zeiten, in denen einerseits messbare Performance und andererseits dezentrales Arbeiten immer wichtiger werden, zunehmend relevant werden könnten. Führen derartige Entwicklungen nun unweigerlich zu einer erhöhten Transparenz und Überwachung zu Lasten der Privacy am Arbeitsplatz? Oder ist Transparenz gestaltbar, so dass sich Privacy und Transparenz nicht unbedingt ausschließen und sich positive Effekte für Führungskräfte und Mitarbeiter erzielen lassen? Der Beitrag greift diese Fragestellung auf und diskutiert u.a. an Hand des Konzeptes der „Inversen Transparenz“ sowohl die Möglichkeiten und Chancen einer bewussten Gestaltung von Transparenz wie auch die sich hieraus ergebenden Herausforderungen insbesondere für Führungskräfte und Mitarbeiter.
Dr. Rahild Neuburger ist an der Forschungsstelle „Information, Organisation und Management“ an der LMU Munich School of Management tätig und hat dort seit ihrer Promotion viele Buch- und Forschungsprojekte begleitet. Ihre Forschungsschwerpunkte sind Implikationen der Digitalisierung/ Künstlichen Intelligenz auf Arbeits- und Organisationsstrukturen sowie damit zusammenhängende Fragen der Führung, Bildung, Change Management und Arbeitsmethodik. Zudem ist sie Geschäftsführerin des MÜNCHNER KREIS und hier Koordinatorin des Arbeitskreises „Arbeit in der digitalen Welt“.
Mena Angela Teebken, M. Sc., studierte Betriebswirtschaftslehre im Bachelor und Master an der Universität Mannheim mit Auslandssemester an der Aston Business School in Großbritannien. Sie sammelte u.a. Arbeitserfahrung in der internationalen Zusammenarbeit, im E-Commerce sowie in der Konsum-, und Medienbranche. Seit Dezember 2019 ist Mena Teebken wissenschaftliche Mitarbeitern und Doktorandin am Institut für Wirtschaftsinformatik und Neue Medien (WIM) an der LMU München. Im Rahmen ihrer aktuellen Forschung beschäftigt Sie sich mit Privatheitsbedenken am Arbeitsplatz. Sie ist Mitglied im „Forum Privatheit“.
Prof. Dr. Thomas Hess ist seit 2001 Universitätsprofessor für Betriebswirtschaftslehre und Wirtschaftsinformatik sowie Direktor des Instituts für Wirtschaftsinformatik und neue Medien der Ludwig-Maximilians-Universität München. Er ist seit 2003 Mitglied im Board des Center for Digital Technology and Management (CDTM) der LMU München und TU München und koordiniert seit 2004 das Zentrum für Internetforschung und Medienintegration der LMU (ZIM). Seit 2011 ist er als Co‐Vorstand des Internet Business Clusters München (IBC) und seit 2015 als Mitglied im Direktorium des Bayerischen Forschungsinstituts für digitale Transformation (BIDT) aktiv. Der langfristige Forschungsschwerpunkt von Thomas Hess liegt in unternehmerischen Aspekten der Bereitstellung und Nutzung digitaler Technologien. Sein methodischer Fokus konzentriert sich auf großzahlig empirische Arbeitsweisen, ergänzt durch gestaltungsorientierte Forschung sowie formale Kalküle. Er ist Mitglied im „Forum Privatheit“.