Aktuelles

23. August 2019
„Data for Better Living: Artificial Intelligence and Privacy“ Forum-Privatheit-Mitglieder auf der IFIP Summer School
„Data for Better Living: Artificial Intelligence and Privacy“ … lautete das Thema der diesjährigen IFIP Summer School. Eine Woche lang wurden Fragen und mögliche Antworten zu Privatheit und Datensicherheit in Brugg/Windisch (Schweiz) diskutiert. Der Forschungsverbund Forum Privatheit war bei dieser Veranstaltung durch Mitglieder aus verschiedenen Wissenschaftsbereichen vertreten. So war Forum Privatheit-Koordinator Michael Friedewald vom Fraunhofer ISI (Institut für System- und Innovationsforschung) als Co-Chair des Programmkomitees für die Auswahl von Inhalten und Formaten mitverantwortlich. FP-Mitglied Frank Ebbers, ebenfalls Fraunhofer ISI, stellte ein Modell zur Klassifizierung individueller Datenschutzstrategien vor. Weitere Forum Privatheit-Mitglieder waren Benjamin Bremert und Felix Bieker vom ULD (Unabhängiges Landeszentrum für Datenschutz in Schleswig-Holstein), die ein Tutorium über „Freedom of information by design“ veranstalteten. Zudem stellte Jens Wettlaufer (TU Darmstadt) seine Arbeit über automatische Datenschutzbewertung für mobile Apps vor, die er zusammen mit FP-Mitglied Hervais Simo vom Fraunhofer SIT (Institut für Sichere Informationstechnologie) verfasst hatte. Als Einführung ins Thema hielt Jim Dratwa von der European Group on Ethics in Science and New Technologies (EGE) eine Keynote über Ethik im Bereich Künstlicher Intelligenz. Darin zeigte Dratwa eindrucksvoll, wohin die Entwicklungen dieser Technik führen und dass weltweite Regularien nötig sind. Die zweite Keynote thematisierte Verzerrungen bei Daten, Algorithmen und Entscheidungen und wie diese umgangen werden können und wurde von Francien Dechesne von der Universität Leiden (Niederlande) vorgetragen. Vaclav Matyas von der Masaryk University (Tschechien) erläuterte die ROCA Verwundbarkeit welche in gängigen Smartcards vorkommt. Diese rührt daraus, dass es möglich ist Muster in generierten Zufallszahlen zu erkennen. Somit sind diese Verschlüsslungen angreifbar. Michele Loi von der Universität Zürich betrachtete in seinem Vortrag ethische Dilemmata bei Entwicklungen im Bereich Internet der Dinge. Dass sich Datenschutz und Verbraucherfreundlichkeit nicht ausschließen müssen, zeigte Christian Kunz, der ein Tool seines Unternehmens BitsAbout.Me vorstellte. Marc van Lieshout argumentierte, dass die DSGVO Innovationen fördern kann und dass dieses Denken in Unternehmen langsam Einzug hält.  Einen sehr lebhaften Vortrag hielt Carmela Troncoso vom Security and Privacy Engineering Lab der ETH Lausanne. Sie zeigte, dass durch Hinzufügen von Rauschen in Rohdaten die Privatheit geschützt werden kann, da maschinelle Lernsysteme diese Daten im Gegensatz zum Menschen falsch interpretieren. Natürlich durfte auch das Thema Blockchain nicht fehlen, das Angelo de Caro untersuchte. Er sprach darüber, wie die Blockchain eine gemeinsame Basis für Vertrauen schafft – betonte aber auch, dass keine personenbezogenen Daten in die Blockchain gespeichert werden sollten. Wie Sicherheit und Cloud Computing in Einklang gebracht werden können, war das Thema von Kurt Tutschku (Blekinge Institute of Technology). Sanne Kruikemeier von der Universität Amsterdam berichtete über ihre Studie über die Akzeptanz von „targeted Ads“ und Nora Ni Loideain vom Information Law and Policy Centre der Universität London sprach über Sprachassistenten und dass diese aufgrund ihrer durchgehend weiblichen Besetzung Geschlechterklischees aufgreifen und so Frauen diskriminieren. Ein wichtiger Programmpunkt vor allem für die studentischen Teilnehmer_innen waren die so genannten Paper Sessions, da sie die Möglichkeit boten, die eigenen Arbeiten vorzustellen und unmittelbares Feedback aus der Hörerschaft zu erhalten. Hier wurden verschiedenste Privatheits-Themen aus technischer, juristischer und sozialwissenschaftlicher Perspektive beleuchtet. So wurde zum Beispiel gezeigt, wie viel Persönliches die Sensordaten eines Smartphones über den Nutzer verraten. Weitere Paper zeigten Regulationsstrategien für Künstliche Intelligenz, die Prinzipien von „Privacy by Design“, „Privacy Preserving Technologies" sowie die Bewertung von Datenschutzrisiken. Die gut besuchten Workshops und Tutorials betrachteten unter anderem, wie der Datenschutz sowohl bei der Spracherkennung sowie auch beim Identitätsmanagement gewahrt werden kann. Da IT-Sicherheit Voraussetzung für Datenschutz ist, stand ein Nachmittag ganz im Zeichen von Cybersicherheit – beispielsweise mit einem Tutorium zu Kryptografie in Neuronalen Netzen. Den Abschluss der Summer School bildete eine Panel Diskussion, die betonte, dass man die Nutzer_innen in den Mittelpunkt der Fragen um Datenschutz stellen müsse. Zudem warf eine Sprecherin die Frage auf, welche Aufgaben der Staat, sowie Unternehmen bis in zehn Jahren priorisieren solle und welche Normen die neuen Technologien mit sich brächten. Während der Gespräche wurde auch thematisiert, dass die DSGVO nicht immer eindeutig sei und noch viel Interpretationsspielraum bestehe.
1. Juni 2019
Forum Privatheit-Mitglied Prof. Dr. Jörn Lamla zum Mitglied der Arbeitsgruppe „Digitalisierung und Demokratie“ berufen
Im März 2019 wurde Forum Privatheit-Mitglied Prof. Dr. Jörn Lamla zum Mitglied der neu eingerichteten Arbeitsgruppe „Digitalisierung und Demokratie“ der Nationalen Akademie der Wissenschaften Leopoldina berufen. Die Leopoldina kooperiert dabei mit der Union der deutschen Akademien der Wissenschaften und der Akademie der Technikwissenschaften acatech. Die Arbeitsgruppe wird am 25. Juni 2019 ihre Arbeit aufnehmen.