Vertrauenswürdige Künstliche Intelligenz – Wie kann die praktische Umsetzung gelingen?

18. Nov 2021, Greta Runge

Interdisziplinärer ExpertInnen- Workshop des Forum Privatheit zum Einsatz und der Gestaltung einer vertrauenswürdigen Künstlichen Intelligenz (KI) identifiziert Problemfelder und formuliert Lösungsansätze für die praktische Umsetzung.

Aus der Entwicklung und dem Einsatz von KI-basierten Lösungen ergeben sich neuartige Chancen ebenso wie neue Anforderungen für das verantwortliche Handeln im Umgang mit dieser Technologie. In diesem Zusammenhang empfiehlt ein aktuelles Policy-Paper des Forums Privatheit, die individuelle und gesellschaftliche Selbstbestimmung bei der Entwicklung und Anwendung von KI sicherzustellen.[1] An diesem Punkt setzte der im Rahmen des BMBF-Projekts PRIDS veranstaltete ExpertInnen-Workshop an, auf dem neben Umsetzungsstrategien auch partizipative Methoden für eine ethische Anwendungspraxis von KI vorgestellt wurden. Vertreterinnen und Vertreter aus Wissenschaft, Technikfolgenabschätzung (TA) und Wirtschaft präsentierten in diesem Rahmen eine Reihe von Vorstellungen darüber, wie ein verantwortungsbewusster Umgang mit KI in der Praxis gelingen kann und welche Hürden es bei der praktischen Anwendung ethischer Prinzipien zu überwinden gilt. Als zentrale Herausforderungen stellten sich hierbei die Frage der Begriffsbestimmung “vertrauenswürdiger” KI, der Stand des derzeitigen KI-Ethik-Diskurses und die Praktikabilität von Ansätzen für eine menschenzentrierte, partizipative Gestaltung von KI-basierter Technik heraus.

Was ist eine “vertrauenswürdige KI”?

Während Forderungen nach “vertrauenswürdiger KI” aus den Reihen der Wirtschaft, der Wissenschaft und der Politik auf nationaler wie auf internationaler Ebene zunehmend lauter werden,[2] ist dieses Konzept nicht zuletzt wegen seiner Mehrdimensionalität bisher nicht einheitlich definiert und wird deshalb je nach Anwendungsbereich umrissen. Im Kontext der Entwicklung und des Einsatzes von KI wird bislang häufig auf die Notwendigkeit der Nachvollziehbarkeit zugrundeliegender algorithmischer Entscheidungsprozesse verwiesen und Optionen besserer Verfahrenstransparenz thematisiert, etwa durch explizite Kennzeichnung (“KI Inside”). Zunächst sind jedoch bessere definitorische Grundlagen erforderlich, um eine weitere inhaltliche Spezifizierung der Konzepte Vertrauen und Verantwortung im Zusammenhang mit KI und die zielgerichtete Diskussion der verschiedenen Stakeholder zu ermöglichen.

KI-basierte Entscheidungsprozesse finden in sozialen Kontexten statt. Unter anderem durch die Vorauswahl des Trainingsmaterials sind sie dabei „subjektiven Vorprägungen unterworfen“,[3] d.h., den Prägungen der Mitarbeiterinnen und Mitarbeiter jener Institutionen, die KI entwickeln und einsetzen. Die Frage der Vertrauenswürdigkeit betrifft deshalb nicht nur die KI-Lösungen selbst, sondern auch die menschlichen und systemischen Interventionen bei ihrer Entwicklung und ihrem Einsatz.

In der Diskussion wurde hervorgehoben, dass ein relationales Begriffsverständnis von Vertrauen (wer vertraut wem, in welcher Hinsicht, warum, und unter welchen Umständen?) die definitorischeTiefenschärfe verbessern könnte. Geht man nämlich von einem derartig differenzierteren Begriffsverständnis aus, so stellen sich Vertrauen und Verantwortung nicht mehr nur als normative Orientierungsmaßstäbe dar, sondern als Handlungen voraussetzungsbehafteter, intentionaler Selbst-Positionierung. Deshalb sollte bei der praktischen Umsetzung von KI explizit die Frage nach dem Ver- oder Misstrauen gestellt werden, das einer KI-Lösung entgegengebracht wird. Denn Vertrauen wird in jeweils spezifischen sozialen Handlungszusammenhängen operationalisiert.

Wie kann ein praxisnaher Ethik-Diskurs etabliert werden?

Gestaltung, Entwicklung und Einsatz algorithmenbasierter Systeme erfolgen derzeit weitgehend in einem regulatorischen und ethischen Vakuum, sodass sich die Frage nach normativen Kriterien stellt, die als Maßstab für eine vertrauenswürdige Technologieentwicklung gelten können. Im Workshop wurden die mangelnde Praxistauglichkeit bestehender Ethik-Guidelines und ihre nicht generalisierbare Anwendbarkeit als Hemmnisse bei der Etablierung eines verantwortungsvollen Umgangs mit KI identifiziert. Ferner wurde festgestellt, dass der wissenschaftliche KI-Ethik-Diskurs Ansätze, Begriffe und Konzepte hervorgebracht hat, die umfassend und stringent sind, die jedoch nur schwer in der Praxis anzuwenden sind.

Eine Möglichkeit, wie dies dennoch gelingen könnte, brachte Forum Privatheit Mitglied Thilo Hagendorff (Uni Tübingen) in die Diskussion, wobei er auf der Ebene von Entwicklern und Entwicklerinnen ansetzte. Er stellte den AI Virtues Ansatz vor, bei dem es um technikspezifische Tugenden (basis virtues: justice, honesty, responsibility and care)[4] beziehungsweise Charakterdispositionen geht, die in der Praxis Anwendung finden können. Dieser Zugang soll eine Sensibilisierung für den ethischen Umgang mit der Technologie in unterschiedlichen Kontexten und Situationen ermöglichen, ohne dabei die technische Komplexität von KI zu ignorieren. Um den KI-Ethik-Diskurs praxisnäher zu gestalten, sollte nach Hagendorff weiterhin der Fokus von reinen Ethikprinzipien auf prozessorientierte Ansätze gelegt werden, die anwendungsspezifische Regeln für den Umgang mit der Technologie ermöglichen.

Fokus auf eine menschenzentrierte Technikgestaltung und Partizipation

Unternehmen, die KI entwickeln und nutzen, stehen vor der Herausforderung, die Systeme effizient einzusetzen, aber auch den externen, also politischen und gesellschaftlichen Anforderungen gerecht zu werden. Dabei stehen zunächst die internen Logiken und Zielsetzungen der Unternehmen im Vordergrund. Folglich diskutierten die Expertinnen und Experten, wie ein verantwortungsvoller Umgang mit der Technologie in interne Strukturen und Prozesse übersetzt werden kann. Ein besonderer Fokus muss hierbei auf den Personen im Unternehmen liegen, die mittel- oder unmittelbar mit Technologie in Berührung kommen. Zu einer holistischen Operationalisierung von Vertrauen in KI gehört, dass seitens der Unternehmen Maßnahmen ergriffen werden, die den Menschen in den Mittelpunkt des Technologieeinsatzes stellen.[5] Ein Beispiel hierfür ist der Human in the Loop-Ansatz, bei dem der Mensch die Ergebnisse von KI-Entscheidungssystemen jederzeit übersteuern, beeinflussen und verändern kann. Ein ethisches und verantwortungsbewusstes Verhalten in Bezug auf den Umgang mit der Technologie muss von Anfang an in interne und externe Verarbeitungsprozesse mit eingeschlossen werden.

Expertinnen und Experten wiesen im Workshop darauf hin, dass eine verantwortungsvolle Entwicklung sowie der Einsatz von KI als partizipativer Gestaltungsprozess aufgefasst und erarbeitet werden sollte. Dieser Prozess zielt auf eine sozialverantwortliche Technikentwicklung und umfasst die Etablierung ethischer Rahmenbedingungen menschenzentrierter KI-Systeme. Angebote zur aktiven Mitgestaltung der Technologieentwicklung sollten seitens der Unternehmen gefördert und ermöglicht werden, sodass verschiedene Akteure und nicht zuletzt die Anwenderinnen und Anwender in den Technologiegestaltungsprozess miteinbezogen werden.

Wertorientierte Entwicklung vorantreiben und Chancen der Technologie nutzen

Die Diskussion um eine vertrauenswürdige KI und eine ethische Reflektion zur Technologieentwicklung in Bezug auf den Einsatz und die Gestaltung von KI ist komplex und setzt auf vielen Ebenen an. Angesichts der unabsehbaren Tragweite dieser Technologie sind alle Akteure aufgefordert, sich für einen verantwortungsvollen Umgang zu positionieren. Die Akteure in Unternehmen und Organisationen stehen vor der Herausforderung, dass der KI-Einsatz gesellschaftliche Implikationen hat, die entsprechend zu berücksichtigen sind. Eine Lösung erscheint dabei so herausfordernd wie aussichtsreich: Würde nämlich die Entwicklung von KI künftig unter Berücksichtigung ethischer Gesichtspunkte vorangetrieben, so könnte sich dies nicht nur positiv auf die Akzeptanz dieser Technologie und die Reputation und Wertschöpfung ihrer Produzenten auswirken[6], sondern auch zu nachhaltigen Lösungen für globale Probleme und vorteilhaften gesamtgesellschaftliche Entwicklungen beitragen.

~~~~~~~~~~

Eine Dokumentation des Workshops und die Zusammenfassung der Diskussionsergebnisse finden Sie hier.

~~~~~~~~~~

Der Blogeintrag ist im Kontext des PRIDS-Projekts (BMBF) entstanden und steht außerdem im Zusammenhang mit Arbeiten der KI-Gruppe im Fraunhofer ISI. Ansprechpartner für das Thema vertrauenswürdige KI im Fraunhofer ISI sind Dr. Bernd Beckert, Dr. Michael Friedewald, Murat Karaboga, Greta Runge und Dirk Kuhlmann.

~~~~~~~~~~

[1] Hagendorff, T., Geminn, C., Lamla, J., Karaboga, M., Krämer, N., Nebel, M. & Uhlmann, M. (2020). Risiken Künstlicher Intelligenz für die menschliche Selbstbestimmung. Policy Paper. Abrufbar unter: https://www.isi.fraunhofer.de/de/presse/2020/presseinfo-25-Handlungsempfehlungen-vertrauenswuerdige-KI.html.

[2] Die EU-Kommission legte in diesem Jahr einen Entwurf über das europäische Konzept für vertrauenswürdige KI vor. Ziel des Vorschlags ist es, Europa zum globalen Zentrum für vertrauenswürdige KI zu machen (https://ec.europa.eu/commission/presscorner/detail/de/ip_21_1682).

[3] Martini, M. (2019). Blackbox Algorithmus. Grundfragen einer Regulierung künstlicher Intelligenz. Wiebaden: Springer VS.

[4] Hagendorff, T. (2021). AI virtues–The missing link in putting AI ethics into practice. arXiv preprint arXiv:2011.12750.

[5] siehe z.B. Shneiderman, B. (2020). Bridging the Gap Between Ethics and Practice: Guidelines for Reliable, Safe, and Trustworthy Human-centered AI Systems. In: ACM Transactions on Interactive Intelligent Systems, Vol. 10, No. 4, October, Article 26.

[6] siehe z.B. Beckert, B. (2021). The European way of doing Artificial Intelligence: The state of play implementing Trustworthy AI,” 2021 60th FITCE Communication Days Congress for ICT Professionals: Industrial Data – Cloud, Low Latency and Privacy (FITCE), pp. 1-8. Abrufbar unter: https://ieeexplore.ieee.org/document/9588560.


Über den Autor

Greta Runge ist Doktorandin am Fraunhofer-Institut für System- und Innovationsforschung ISI in Karlsruhe und ebenfalls Mitarbeiterin im vom Bundesministerium für Bildung und Forschung (BMBF) geförderten „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt”.

0Noch keine Kommentare

Ihr Kommentar
Antwort auf:  Direkt auf das Thema antworten