KI-Lösungen gegen Desinformation in Social Networks – Fragen des grundrechtskonformen und transparenten Einsatzes

28. Okt 2021, Lena Isabell Löber

Die algorithmenbasierte Informationssteuerung großer Social Networks nimmt Einfluss auf die Verbreitung und Wahrnehmbarkeit von Desinformation. Auch zur Detektion von Desinformation setzen die Anbieter auf KI-Lösungen. Ihre technische und organisatorische Entscheidungsmacht wirft Fragen zum Umgang mit den Risiken für die Grundrechtssphären der Nutzer auf und begründet das Erfordernis, Kriterien für einen rechtskonformen Einsatz solcher Technologien aufzustellen.

Desinformation kann sich negativ u.a. auf den öffentlichen Diskurs, die öffentliche Gesundheit oder Sicherheit, die politische Beteiligung sowie Persönlichkeitsrechte Dritter auswirken. Sowohl die schiere Masse von Beiträgen als auch die Geschwindigkeit, mit der sich Desinformationen und (andere) rechtswidrige Inhalte über das Internet und speziell Social Networks verbreiten, erfordern automatisierte Erkennungs- und Filtersysteme. Anbieter von Social Networks setzen KI-Technologien zum einen ein, um einer rechtlichen Pflicht zur Unterbindung von Rechtsverletzungen nachzukommen und zum anderen als privatautonome Maßnahme, um plattformeigene Hausregeln durchzusetzen und das Netzwerk für Nutzende und Werbekunden attraktiv zu halten. Beispielsweise gibt YouTube an, dass von April bis Juni 2021 99,5 % der entfernten Kommentare von automatischen Meldesystemen erkannt wurden. Weiterhin ist zwischen vollautomatisierten und teilautomatisierten Verfahren zu unterscheiden: Während bei vollautomatisierten Verfahren die Erkennung, Entfernung oder das Downranking von Desinformation in Texten und Bildern sowie von Deep Fakes und Social Bots ohne menschliche Beteiligung erfolgen, übernehmen beim teilautomatisierten Einsatz Menschen die einzelfallbezogene Interpretation und Überprüfung der von technischen Systemen erzeugten Meldungen.

Technikimmanente Erkenntnisgrenzen und Risiken der KI-Systeme

Der Filtereinsatz zur Eindämmung von Desinformation birgt jedoch einige Konfliktpotenziale. So kann das Risiko falsch-positiver Treffer in der Regel trotz immer leistungsfähigerer Systeme nicht vollständig ausgeschlossen werden. Fehltreffer können z.B. von der Meinungs- und Kunstfreiheit geschützte satirische Darstellungen sein. Die technischen Systeme können nicht wie Menschen unter Berücksichtigung des Gesamtzusammenhangs der Äußerung zwischen einer Tatsachenbehauptung und einer Meinung unterscheiden, geschweige denn beurteilen, ob eine Tatsachenbehauptung und eine Meinung im engeren Sinne sinnstiftend miteinander verbunden sind, sodass die Äußerung insgesamt als geschützte Meinungsäußerung anzusehen ist (vgl. nur BVerfGE, 90, 241, 248). Aufgrund technikimmanenter Erkenntnisgrenzen können sie auch nicht wie Menschen den Wahrheitsgehalt einer Tatsachenbehauptung prüfen oder eine Abwägung der widerstreitenden Grundrechtspositionen leisten.

Darüber hinaus nimmt die Informationssteuerung durch algorithmische Entscheidungsfindung wirkmächtiger Social Networks erheblichen Einfluss darauf, welche meinungsbildungsrelevanten Inhalte wie wahrgenommen werden. Mit ihrer technisch-organisatorischen Gestaltungs- und Entscheidungsmacht können die Anbieter die mediale Öffentlichkeit in schädigender oder zumindest nicht transparenter Weise strukturieren. Seit einiger Zeit steht der – nunmehr von der Whistleblowerin Frances Haugen gestützte – Vorwurf im Raum, Facebook setze prioritär auf Wachstum und Werbeeinnahmen und nehme dafür bewusst in Kauf, Manipulationsversuche nicht hinreichend zu bekämpfen und die gesellschaftliche Spaltung zu fördern.

Hinzu kommt, dass die riesigen Datenpools, mit denen lernfähige Systeme für ganz unterschiedliche Einsatzzwecke (z.B. Erkennung von Desinformation und Hassrede, aber auch zur Erstellung von Persönlichkeitsprofilen und für individualisierte Werbung) trainiert und evaluiert werden, in der Hand der globalen privaten Online-Plattformen liegen, die ihren Datenschatz nur für eigene Zwecke nutzen und bei denen ausreichende Schutzvorkehrungen für betroffene Personen zur Kontrolle über ihre personenbezogenen Daten fehlen (s. zu dieser Problematik den Blogbeitrag von Roßnagel, Datenspenden für KI – Vertrauen nur mit Grundrechtsvorsorge).

KI-Einsatz in der Internet(selbst)regulierung als Balanceakt

Die Internet(selbst)regulierung, die sich zunehmend des Einsatzes von KI bedient, muss den schwierigen Balanceakt vollziehen, dass der Einsatz nicht selbst eine Rechtsverletzung birgt (etwa Verstoß gegen das datenschutzrechtliche Verbot automatisierter Einzelentscheidungen) oder herbeiführt (etwa Entfernung eines rechtmäßigen, von Art. 5 Abs. 1 GG geschützten Beitrags) und zudem Nutzende nicht in Unkenntnis darüber gelassen werden, dass und in welcher Art und Weise sie automatisierten Entscheidungen ausgesetzt sind. Den Online-Plattformen gesetzlich und gerichtlich auferlegte „Filterpflichten“ sowie rechtliche Grenzen des KI-Einsatzes verfassungsrechtlicher, medienrechtlicher und datenschutzrechtlicher Natur und Transparenzverpflichtungen etwa aus dem Medienstaatsvertrag und dem Netzwerkdurchsetzungsgesetz adressieren diese Herausforderungen mittelbar und unmittelbar.

Werden die KI-Technologien maßvoll und transparent eingesetzt, verbessern sie die Effizienz bei der Erkennung und Verhinderung von Desinformation und anderen Rechtsverletzungen ganz erheblich. Für ihren rechtmäßigen Einsatz dürfen indes nur ausgewogene Anreize gesetzt werden, die unter Berücksichtigung technischer Möglichkeiten und Grenzen die widerstreitenden Grundrechtsbelange austarieren, sodass in Kommunikationsgrundrechte nicht ungerechtfertigt eingegriffen wird, die betroffenen Personen den Maßnahmen nicht schutzlos ausgesetzt sind und auch die Anbieter keine unzumutbaren Verpflichtungen treffen. Diese Herausforderungen und Lösungsansätze zeigen sich beispielsweise im Rahmen der Rechtsprechung und Debatte zur Auferlegung von Pflichten an Diensteanbieter wie Facebook, zukunftsgerichtet nicht nur die Weiterverbreitung eines konkreten rechtswidrigen Inhalts, etwa einer verleumderischen Falschbehauptung, zu verhindern, sondern auch Duplikate und sogar sinngleiche Beiträge anderer Nutzer (weltweit) zu entfernen (vgl. etwa EuGH, Urt. v. 3.10.2019 – C-18/18, ECLI:EU:C:2019:821 – Glawischnig-Piesczek/Facebook). Schließlich können die Erkennungssysteme verhindern, dass Betroffene gegen jeden einzelnen duplizierten und ähnlich-duplizierten Beitrag separat vorgehen müssten – bei Desinformationskampagnen und „Shitstorms“ angesichts der Funktionslogiken im digitalen Raum ein oftmals aussichtsloses Unterfangen.

Bei privatautonomen Maßnahmen der Social Networks, die sich nach umstrittener, aber überzeugender Auffassung auch auf AGB-widrige – und nicht zugleich gesetzeswidrige – Inhalte (unter Umständen Desinformation, Verschwörungstheorien, Hassrede etc.) erstrecken dürfen (jüngst bestätigt von BGH, Urteil v. 29.7.2021 – III ZR 179/20, NJW 2021, 3179), ist den mittelbaren Grundrechtsgefährdungen Rechnung zu tragen. Maßnahmen wie die Entfernung von Beiträgen oder Sperrung von Nutzerkonten müssen auf Basis klarer, vorab formulierter Kriterien erfolgen. Mit zunehmender Macht, gesellschaftlicher Relevanz und Einflussnahme auf die Kommunikationsprozesse steigt das Ausmaß der rechtlichen Verpflichtung der Anbieter. Je größer, wirkmächtiger, „unausweichlicher“ die Online-Plattformen sind, desto höhere Anforderungen sind auch an die Zuverlässigkeit ihrer automatisierten Systeme und Entscheidungen sowie die vorzusehenden technischen und rechtlichen Schutzmaßnahmen zu stellen.

Problematik der Fehltreffer

Insbesondere darf es durch die Filtertechnologien nicht zu unverhältnismäßigen Grundrechtseingriffen kommen. Manuelle Nachkontrollen der automatisiert ermittelten Treffer in gewissem Umfang sowie ein verfahrensbasierter Grundrechtsschutz sind Mechanismen, die eine hinreichend bestimmte Tatsachengrundlage der Entscheidungen gewährleisten und sicherstellen können, dass Nutzende auch außergerichtlich, in plattforminternen Verfahren Stellung beziehen und effektiv gegen fehlerhafte Maßnahmen der Anbieter vorgehen können. Zudem können bei der technischen Gestaltung der Erkennungs- und Filtersysteme in der Regel verschiedene Reaktionsalternativen implementiert werden, die abhängig von Übereinstimmungs- bzw. Wahrscheinlichkeitswerten sowohl vollautomatisierte als auch teilautomatisierte Reaktionen in verschiedenen Ausprägungen vorsehen. Auch ein stärkeres Interagieren von Mensch und KI, bei dem etwa Menschen die Fehler der KI direkt an diese zurückspiegeln, kann Falscherkennungen minimieren. Angesichts dieser technischen und rechtlichen Möglichkeiten, die von Fehltreffern ausgehenden Gefahren für die Grundrechtssphären der Nutzenden effizient zu reduzieren, führt das Risiko falsch-positiver Treffer auch im sehr grundrechtssensiblen Äußerungsrecht jedenfalls nicht per se zum Ausschluss solcher Filtertechnologien. Jedoch ist die Möglichkeit, vollautomatisierte und nicht teilautomatisierte Verfahren rechtsverträglich einzusetzen, hier sehr stark eingeschränkt und wohl nur bei äußerst treffsicheren Ergebnissen, etwa bei Duplikaten eindeutig rechtswidriger Desinformation, in Betracht zu ziehen, um Overblocking zu vermeiden.

Transparenzvorgaben gegen weitreichende Wissensasymmetrien

Ein weiterer wichtiger Pfeiler der Regulierung folgt aus dem weitreichenden Wissensvorsprung der Diensteanbieter im Hinblick auf die von ihnen eingesetzten algorithmischen Verfahren. Sie treffen daher nach Medienstaatsvertrag und Netzwerkdurchsetzungsgesetz spezifische Transparenzanforderungen. Transparenz im Umgang mit Falschinformationen ist besonders bedeutsam, um nachvollziehen zu können, in welcher Weise und nach welchen Kriterien die Anbieter auf den freien Diskurs einwirken und diesen vor Manipulationen zu schützen versuchen. Dabei geht es neben Sanktionen wie das Löschen und Sperren von Inhalten und Nutzerkonten auch um niedrigschwelligere und mitunter für Nutzende nicht erkennbare Formen der Content-Moderation, wie das Downranking oder die Kennzeichnung von Falschinformationen, bei denen die Verletzung von Kommunikationsgrundrechten ebenfalls nicht ausgeschlossen ist.

Die Transparenzvorgaben für Medienintermediäre im Medienstaatsvertrag sind sehr weiche Verpflichtungen. Sie verlangen allgemein gehaltene Angaben zu Kriterien u.a. über die Selektion und Präsentation von Inhalten sowie die Funktionsweise der eingesetzten Algorithmen und verpflichten nicht etwa dazu, Nutzende darüber zu informieren, welche Kriterien ex-post im konkreten Fall ausschlaggebend für die Anzeige eines Inhaltes waren. Zwar wird keine spezifische Pflicht statuiert, konkret auf den algorithmusbasierten Umgang mit Desinformation und anderen Falschinformationen einzugehen. Jedoch sind allgemeine Informationen hierzu mitzuteilen, sofern z.B. der Wahrheitsgehalt oder die Seriosität relevante Kriterien für Zugang, Verbleib, Aggregation, Selektion, Präsentation oder Gewichtung von Inhalten sind. Insgesamt stellen die Transparenzvorgaben ein taugliches Mittel dar, grobe Einblicke in Sortier-, Priorisierungs- und Selektierungsmethoden von Medienintermediären zu erhalten und für diese Thematik zu sensibilisieren, die gleichwohl in ihren Wirkungen nicht überschätzt werden sollten.

Ähnliches gilt für die jüngst im Zuge einer Änderung des Netzwerkdurchsetzungsgesetzes erfolgte Erstreckung der Berichtspflichten von Social Networks auf allgemeine Angaben zu eingesetzten Verfahren zur automatisierten Erkennung von Inhalten, die wegen ihrer gesetzlichen oder vertraglichen Unzulässigkeit entfernt werden sollen. Angesichts der Begrenzung auf allgemeine gehaltene Informationen steht nicht zu erwarten, dass sie eine Überprüfung zuließen, ob und inwieweit die (teil-)automatisierten Verfahren tatsächlich rechtskonform gestaltet und eingesetzt werden. Als echte Kontrollmaßstäbe sind diese Vorgaben kaum geeignet.

Auf EU-Ebene nimmt sich der Vorschlag der EU-Kommission für ein „Gesetz über digitale Dienste“ (Digital Services Act) der Aufgabe an, mit einem komplexen Regelwerk einen klaren Transparenz- und Rechenschaftsrahmen für Online-Plattformen zu schaffen. Der Entwurf weist große Ähnlichkeiten zu den nationalen Compliance- und Transparenzvorgaben im Netzwerkdurchsetzungsgesetz und Medienstaatsvertrag auf. Darüber hinaus vorgesehene Verpflichtungen für sehr große Online-Plattformen wie Facebook, den Missbrauch ihrer Systeme zu verhindern, indem sie systemische Risiken identifizieren, risikobasierte Maßnahmen durchführen (z.B. Anpassung der Content-Moderation und Empfehlungssysteme) und ihr Risikomanagementsystem von unabhängiger Seite prüfen lassen, könnten auch zu einem nachhaltigeren, umfassenderen Lösungsansatz der Desinformationsbekämpfung beitragen. Im Rahmen der „Notice-and-Action“-Mechanismen, bei denen Anbieter über vor allem durch Nutzende gemeldete Inhalte zu entscheiden haben, sind auch automatisierte Verfahren ohne menschliche Kontrolle nicht ausgeschlossen. Anders soll es hingegen bei den Beschwerdeverfahren wegen entfernter Inhalte und Konten aussehen: Hier ist mit Blick auf die skizzierten Risiken algorithmischer Entscheidungsfindung die explizite Vorgabe, über Beschwerden von Nutzern gegen Entfernungen von Beiträgen und Nutzerkonten nicht ausschließlich automatisiert zu entscheiden, zu begrüßen.

Zusammenfassung

KI-basierte Detektions- und Filtersysteme sind in Social Networks unverzichtbare Werkzeuge zur Eindämmung von Desinformation. Für ihren rechtmäßigen Einsatz müssen die technischen Möglichkeiten und Grenzen hinreichend berücksichtigt und die widerstreitenden Grundrechtsbelange austariert werden. Neben einem verfahrensbasierten Grundrechtsschutz für Nutzende bleibt in vielen Fällen eine manuelle Nachkontrolle durch die Anbieter notwendig, um Overblocking nicht in Kauf zu nehmen. Obwohl die Debatte über Desinformation in Social Networks seit den Aufdeckungen zu gezielten Falschmeldungen im US-Präsidentschaftswahlkampf 2016 intensiv geführt wird, bestehen beim Umgang mit dieser Problematik weiterhin erhebliche Informationsasymmetrien zwischen den Anbietern auf der einen und Online-Nutzenden, Politik, Forschung und Zivilgesellschaft auf der anderen Seite. Neu eingeführten Transparenzvorgaben mangelt es teilweise noch an Schärfe. Die jüngsten nationalen Gesetzesänderungen sowie durchaus ambitionierte Regulierungsbestrebungen auf Ebene der EU zeigen jedoch, dass die externe Kontrolle der Vorgänge auf den großen Online-Plattformen Fahrt aufnimmt.


Über den Autor

Lena Isabell Löber ist Doktorandin und wissenschaftliche Mitarbeiterin in der Projektgruppe verfassungsverträgliche Technikgestaltung (provet) im Wissenschaftlichen Zentrum für Informationstechnikgestaltung (ITeG) an der Universität Kassel.

0Noch keine Kommentare

Ihr Kommentar
Antwort auf:  Direkt auf das Thema antworten