Aktuelles

17. März 2023
Pressemitteilung: Nutzung medizinischer Daten mit Datenschutz durchaus vereinbar
Datenschutz und medizinischer Fortschritt müssen kein Widerspruch sein. Expertinnen und Experten fordern gemeinsame Anstrengungen zur Schaffung geeigneter Forschungsinfrastruktur sowie gesetzliche Regelungen, die den Interessen aller Beteiligten gerecht werden. Das Bundesministerium für Bildung und Forschung hatte vom 13.-15. März zur Nationalen Konferenz IT-Sicherheitsforschung 2023 nach Berlin eingeladen. Die Konferenz stand unter dem Leitthema „Die digital vernetzte Gesellschaft stärken“. Das „Forum Privatheit“ diskutierte im Rahmen der Konferenz mit vier Expertinnen und Experten aus Medizin, Datenschutz und Ethik darüber, welche Chancen und Risiken es für Bürgerinnen und Bürger birgt, wenn ihre Patientendaten zu Medizinforschungszwecken zunehmend ausgetauscht und genutzt werden - und was getan werden sollte, um die bestehenden Zielkonflikte zu lösen. "Natürlich ist es gut, Daten für Forschung zum Wohl der Allgemeinheit nutzbar zu machen. Doch sind gerade individuelle Gesundheitsdaten aus guten Gründen besonders sensible und schützenswerte Daten. Und damit haben wir einen Konflikt zwischen verschiedenen Grundrechten, die im Prinzip alle gleichrangig sind: Das Grundrecht auf Gesundheit, das Grundrecht auf Forschung und das Grundrecht auf den Schutz personenbezogener Daten, auch Datenschutz oder informationelle Selbstbestimmung genannt", führte Forum Privatheit-Sprecher Prof. Dr. Alexander Roßnagel in das Thema ein. Ralf Heyder, Charité Berlin, entgegnete, dass sowohl die medizinische Forschung als auch die Patientenversorgung von der Existenz und Verfügbarkeit guter Gesundheitsdaten profitierten. "Leider steht ein solcher Datenbestand in Deutschland bislang aus organisatorischen, rechtlichen und technischen Gründen nicht zur Verfügung", beklagte Heyder. Der Datenschutz sei einer der hemmenden Faktoren. Er forderte den Aufbau der notwendigen technischen Infrastruktur, die Etablierung von Standards für qualitativ hochwertige Gesundheitsdaten, eine Harmonisierung der gesetzlichen Vorschriften und eine forschungsfreundlichere Aufsichtspraxis. Angelika Diarra, Rechtsanwältin und Spezialistin für Gesundheitsrecht in Frankfurt, führte den Missstand auf den Flickenteppich an Regelungen aus verschiedensten Bundes- und Landesvorschriften zurück, die weiterhin neben der europäischen Datenschutzgrundverordnung gelten und nicht harmonisiert sind. Um Rechtssicherheit herzustellen, forderte sie neben dieser Harmonisierung die Schaffung eines Forschungsdatengesetzes, das klare Regeln formuliere und den Interessen aller Akteure und Betroffenen Rechnung trage. PD Dr. Jessica Heesen, Ethikerin an der Universität Tübingen, betonte, dass eine datenbasierte Forschung und Prävention nicht zu einer Bewertung des individuellen Lebensstils durch Versicherungen führen dürfe. Sie machte darauf aufmerksam, dass ein gesicherter Datenschutz die Basis für das individuelle Vertrauen in das Gesundheitswesen sei: „Probleme liegen häufig nicht an einem zu viel an Datenschutz, sondern an einem zu wenig an verlässlicher Kommunikation zwischen dem ärztlichen Personal, medizinischen Einrichtungen und den betroffenen Personen.“ Alexander Roßnagel fasste das Diskussionsergebnis zusammen: „Datennutzung zur medizinischen Forschung zum Wohl von Patientinnen und Patienten und der Schutz ihres Grundrechts auf informationelle Selbstbestimmung sind kein unlösbarer Widerspruch. Eine zunehmende und intensivere Nutzung der Patientendaten muss jedoch durch zusätzliche Schutz- und Sicherungsmaßnahmen ausgeglichen werden. Hierzu kann eine gezielte Forschung zu IT-Sicherheit entscheidend beitragen.“ Wichtig ist ihm vor allem auch eine Entlastung der Patientinnen und Patienten: "Man kann ihnen nicht zumuten, alles über die Einwilligung zu regeln. Damit bürdet man dem einzelnen Menschen Fragen auf, die er nicht beantworten kann. Wir brauchen hier eine gesetzliche Regelung." Die Diskussion wurde von Forum Privatheit-Koordinator Dr. Michael Friedewald moderiert. In der Plattform Privatheit setzen sich Expert:innen aus wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Forum Privatheit als eines der Kernprojekte der Plattform wird vom Fraunhofer-Institut für System- und Innovationsforschung koordiniert. Weiterer Partner ist das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung an der Universität Kassel. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Plattform Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.   Mitglied „Forum Privatheit“ PD Dr. Jessica Heesen Internationales Zentrum für Ethik in den Wissenschaften (IZEW) Universität Tübingen Pressefoto Jessica Heesen Sprecher „Forum Privatheit“: Prof. Dr. Alexander Roßnagel Wissenschaftliches Zentrum für Informationstechnik-Gestaltung (ITeG) Universität Kassel Pressefoto Alexander Roßnagel Projektkoordination „Forum Privatheit“: Dr. Michael Friedewald Fraunhofer-Institut für System- und Innovationsforschung ISI Competence Center Neue Technologien Pressefoto Michael Friedewald Wissenschaftskommunikation „Forum Privatheit“: Barbara Ferrarese, M.A. Fraunhofer-Institut für System- und Innovationsforschung ISI Competence Center Neue Technologien +49 (0)721 - 6809-678 (-166, ass.) barbara.ferrarese@isi.fraunhofer.de   „Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“ https://www.forum-privatheit.de/ Twitter: @ForumPrivatheit Mastodon: @ForumPrivatheit@Bawü.social
9. März 2023
Pressemitteilung: ChatGPT: Informationen können unzuverlässig sein
"Wir müssen uns bewusstmachen, dass Informationen, die durch Künstliche Intelligenz erzeugt werden, unzuverlässig sein können" ChatGPT ist zurzeit in aller Munde. Diese Künstliche Intelligenz schreibt professionell wirkende Reden, Bewerbungen, sogar Gedichte. Doch ist sie so gut, wie es den Anschein hat? Und was heißt das für uns als Gesellschaft? Ein Interview mit Nicole Krämer, Professorin für Sozialpsychologie, Medien und Kommunikation an der Universität Duisburg-Essen. Frau Krämer, Sie forschen bereits seit einiger Zeit zu Chatbots und wie diese auf Menschen wirken. Wie beurteilen Sie ChatGPT? Zunächst war ich erstaunt, wie gut bei ChatGPT - nach jahrelangem Stillstand im Bereich von Chatbots und Dialogsystemen - die Interaktion ist, vor allem die Fähigkeit, auf Nachfragen zu reagieren. Es stellte sich allerdings recht schnell heraus, dass es noch gravierende Schwächen gibt. So werden "Fakten" bis hin zu wissenschaftlichen Quellen frei erfunden. Können Studierende ChatGPT nutzen, um in Klausuren zu schummeln? Wir haben mal getestet, inwieweit ChatGPT die Fragen unserer Onlineklausuren beantworten kann. Dies gelang manchmal recht gut, manchmal aber auch desaströs schlecht. Ich persönlich habe daher wenig Angst, dass sich Studierende massenhaft auf diese Technologie verlassen werden, da bereits berichtet wird, dass die Qualität der Antworten nicht gleichmäßig hoch ist. Könnte man Künstliche Intelligenz, kurz KI genannt, auch einsetzen, um zu erkennen, ob ein Text durch eine KI verfasst wurde? Es gibt zwar auch KI, die darauf spezialisiert ist, zu erkennen, ob ein Text durch eine KI verfasst wurde, aber sie funktioniert nicht zuverlässig. Welche Kompetenzen brauchen wir zukünftig als Gesellschaft, um KI sinnvoll zu nutzen? Wir müssen uns bewusstmachen, dass Informationen, die durch KI erzeugt werden, unzuverlässig sein können. Dies gilt allerdings nicht erst seit oder ausschließlich für ChatGPT, sondern auch in Bezug auf DeepFakes, also täuschend echt wirkende Bild-, Audio oder Video-Aufnahmen, die durch KI erzeugt oder auch manipuliert wurden. Durch welche Maßnahmen könnte dieses Bewusstsein geschaffen und Medienkompetenz gezielt erhöht werden? Medienkompetenz für die gesamte Bevölkerung gezielt zu erhöhen, ist schwierig. Hilfreich ist sicher eine möglichst flächendeckende mediale Information über die Schwächen des Systems, damit die Technologie nicht unreflektiert angewandt wird. Unsere Studien auch aus anderen technologischen Bereichen zeigen, dass Menschen ihr Wissen über Technologie und auch Erwartungen an diese, sehr stark aus dem ableiten, was sie in den Medien sehen. Würden Sie sagen, dass durch ChatGPT Arbeitsplätze gefährdet sind? Die Technologie hat definitiv einen großen Sprung nach vorne gemacht. Die Möglichkeiten zur Interaktion, zur Nachfrage, aber auch die Möglichkeit, die Information weiter spezifizieren zu lassen, sind ein großer Fortschritt. Dennoch gehe ich davon aus, dass auf die erste Begeisterung die Ernüchterung folgt und deutlich wird, an wieviel Stellen die Technologie noch unzulänglich ist. Daher denke ich, dass ChatGPT und ähnliche auf maschinellem Lernen basierende Dialogsysteme auf absehbare Zeit nicht in einer Art und Weise eingesetzt werden, dass sie Arbeitsplätze vernichten. Wie "intelligent" ist ChatGPT - falls dies überhaupt der richtige Begriff ist? Auf Basis des zugrundeliegenden Machine Learning Ansatzes ist ChatGPT sehr gut in der Lage, perfekt zu formulieren, da es aus einer reichen Datenbasis, zum Beispiel alle im Internet auffindbaren Texte, diejenigen Worte aneinanderreiht, die mit höchster Wahrscheinlichkeit aufeinander folgen. Es ist aber nicht intelligent im Sinne der Frage, dass ChatGPT "weiß", was es sagt und/oder den Wahrheitsgehalt seiner Aussagen überprüfen kann. Ist ChatGPT gefährlicher als andere Chatbots? ChatGPT ist insofern gefährlicher, als die Ergebnisse augenscheinlich besser sind als die früherer Chatbots, bei denen man in der Interaktion stärker Schwächen merkte, zum Beispiel auch dahingehend, dass Anfragen gar nicht richtig verstanden wurden und die produzierten Texte nicht so perfekt klangen. Daher ist zu befürchten, dass Personen dem System mehr vertrauen als Vorgängersystemen - und vor allem in nicht gerechtfertigtem Ausmaß vertrauen. Was braucht es - neben einer Erhöhung der Medienkompetenz - noch, um Gefahren für die Demokratie wie die unkontrollierte Verbreitung von Hass und Hetze über Bots einzudämmen? ChatGPT trägt jedenfalls in seiner jetzigen Form nicht zur Verbreitung von Hass und Hetze bei: Man merkt deutlich, dass das System umfangreich kuratiert wird. Wenn man ChatGPT zu sensiblen Themen befragt, antwortet es sehr "vorsichtig" und schränkt seine Antworten ein, zum Beispiel, wenn man fragt, ob Männer besser einparken als Frauen. Für das Internet und die dort eingesetzten Bots gilt: Studien zeigen, dass für die Verbreitung von Hass und Hetze vor allem Menschen und ihr Weiterleitungsverhalten verantwortlich sind. Welche Wirkung haben Chatbots auf Menschen, werden sie noch als Maschine oder schon als Mensch wahrgenommen? Unsere Studien sowie die von Kolleg:innen zeigen, dass bereits kleine soziale Hinweisreize, zum Beispiel die Fähigkeit zur Interaktion, dazu führen können, dass Menschen auf technische Systeme sozial reagieren. Das kann mit einem erhöhten Vertrauen einhergehen, weil dem System unbewusst Menschlichkeit zugeschrieben wird. ChatGPT ist in dieser Hinsicht besonders perfide, da das System den Anschein erweckt, als tippe es - und somit Menschenähnlichkeit vorgibt. Das Interview führte Barbara Ferrarese.
24. Februar 2023
Interview: Forum Privatheit-Mitglied Andreas Baur über Gaia-X als „Cloud der Clouds“ – und warum Technik nicht neutral, sondern politisch ist.
Im Gespräch mit dem eco-Verband erläutert der Politikwissenschaftler Andreas Baur, wie politische Konzepte in Infrastrukturen eingebettet werden und warum Initiativen wie Gaia-X eine neue Form internationaler Technopolitik repräsentieren. Er zeigt auf, dass Technik politisch ist und Handeln ermöglicht, verhindert – oder auch beeinflusst. Cloud-Infrastrukturen haben dabei eine besondere Bedeutung: Sie sind nicht nur Grundlage vieler weiterer Technologien, sondern auch zum geostrategischen Asset geworden. Anhand der Initiative Gaia-X untersucht Baur den – einzigartigen – Governance-Prozess dieser „Cloud der Clouds“ und verweist sowohl auf die Notwendigkeit einer Technikfolgenabschätzung wie auch auf die Einbindung der Zivilgesellschaft in diesen Governance-Prozess. Andreas Baur ist wissenschaftlicher Mitarbeiter am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen und Doktorand am Amsterdam Institute for Social Science Research (AISSR) der Universität Amsterdam. In seiner Doktorarbeit forscht er zu den Politiken der Cloud. Im Forum Privatheit forscht er vor allem zum Verhältnis von grundlegenden IT-Infrastrukturen und Privatheitsschutz. Link zum Interview auf Deutsch Link zum Interview auf Englisch (erschienen im dotmagazine)
17. Januar 2023
Neuerscheinung: “Soziologie der Privatheit ” Habilitationsschrift von Forum Privatheit-Mitglied PD Dr. Carsten Ochs
Forum Privatheit-Mitglied PD Dr. Carsten Ochs veröffentlicht seine Habilitationsschrift "Soziologie der Privatheit - Informationelle Teilhabebeschränkung vom Reputation Management bis zum Recht auf Unberechenbarkeit".    Zusammenfassung: Trotz aller genealogischen Unschärfe und normativen Uneinigkeit hinsichtlich ihrer politischen Bewertung gilt die Praxis des Unterscheidens zwischen Privatem und Öffentlichem nicht nur als zentrales Strukturprinzip der Moderne, sondern ebenso als gegenwärtig soziodigital gefährdeter Strukturierungsmodus. Informationelle Privatheit, so scheint es, löst sich auf unter dem Ansturm von digital-vernetzter Selbst-Konstitution, allgegenwärtiger Datafizierung und den probabilistischen Vorhersageverfahren des maschinellen Lernens. Aber worum geht es überhaupt bei der informationellen Privatheit? Wie lässt sie sich theoretisch fassen, wie sich ihre europäisch-amerikanische Gesellschaftsgeschichte rekonstruieren – und was geschieht mit ihr unter den datafizierten Vergesellschaftungsbedingungen der Gegenwart? Die Soziologie hat auf diese Fragen bislang nur Teilantworten gefunden, und zwar nicht zuletzt deshalb, weil sie die Strukturierung von Gesellschaften mithilfe der Unterscheidung privat/öffentlich seit Habermas’ Strukturwandel vordringlich ›von der öffentlichen Seite her‹ untersucht, die Privatheit hingegen allzu oft der normativ orientierten Sozialphilosophie und den Rechtswissenschaften überlassen hat. Die vorliegende Monographie schließt die verbliebene Lücke der soziologischen Theoriebildung und Forschung, indem sie zunächst eine Sozial- und Gesellschaftstheorie der Privatheit ausarbeitet, diese daraufhin in eine genealogische Rekonstruktion der Gesellschaftsgeschichte informationeller Privatheit ab dem 18. Jahrhundert überführt und schließlich in eine empirisch gesättigte Zeitdiagnose der Privatheit in der digitalen Gegenwartsgesellschaft einmündet. Link zum Verlag: https://www.velbrueck.de/Programm/Theorie-der-Gesellschaft/Soziologie-der-Privatheit.html Einblick ins Buch, Open Access: https://doi.org/10.5771/9783748914877
3. Januar 2023
Neuerscheinung: "European Dreams of the Cloud: Imagining Innovation and Political Control" von Forum Privatheit-Mitglied Andreas Bauer
Forum Privatheit-Mitglied Andreas Baur veröffentlicht ein neues Paper in der Zeitschrift 'Geopolitics'. Zusammenfassung: Recently, several private and political cloud initiatives emerged in Europe. This paper demonstrates how the sociotechnical imaginaries of three European cloud projects reveal a performative coupling of innovation and political ideas of control, territoriality and sovereignty. I ascertain three elements of the concept of sociotechnical imaginaries (innovation, boundary making and material properties) guiding the empirical analysis. Taking technology in the making and its role in (geo)politics seriously, this paper shows how imaginaries shape and interact with current geostrategic and political developments in Europe. The analysis of Microsoft’s cloud, Bundescloud and GAIA-X reveals that rising privacy and data security issues have been integrated into cloud imaginaries that traditionally highlight progress and innovation. More specifically, state actors and cloud providers link and sometimes merge allegedly opposing technological aspects of innovation and politicised ideas of control such as digital sovereignty. This shift constitutes a move towards erecting political borders and localising IT within a global infrastructure. Einblick ins Paper, Open Access: https://doi.org/10.1080/14650045.2022.2151902
7. September 2022
Einladung Einladung zur Online-Dialogveranstaltung «Blickwinkel»: "Das Recht auf Datenschutz: Perspektiven aus Technik, Recht und Ethik"
Einladung zur Online-Dialogveranstaltung «Blickwinkel»: Das Recht auf Datenschutz: Perspektiven aus Technik, Recht und Ethik 22. September 2022, 19.00 - 20.30 Uhr Einwahllink: https://uni-kassel.zoom.us/j/95841472026?pwd=N3R6RTYyZjhiZnN6WlR6YXdkL3IwUT09   Das Recht auf Datenschutz besteht im EU-Recht bereits seit 22 Jahren, dennoch sind viele Aspekte noch unklar oder umstritten. Was wird durch dieses Recht geschützt? Was bedeutet Datenschutz neben anderen bestehenden Rechten? In Deutschland konzentriert sich die Debatte auf das Recht auf informationelle Selbstbestimmung; international wird meist das Recht auf Privatheit diskutiert. Was sind die Unterschiede zwischen diesen Rechten? Braucht es überhaupt noch ein Recht auf Datenschutz? Was kann der Mehrwert eines solchen Rechts sein? Ist ein individuelles Recht auf Datenschutz sinnvoll, wenn Unternehmen ohnehin die Daten ganzer Personengruppen anhäufen? Oder trägt es nur dazu bei, die betroffenen Individuen mit den Problemen, die aus Datenverarbeitung entstehen, allein zu lassen? Können Grundrechte überhaupt eine Antwort auf systemische Probleme bieten, wie sie durch überwachungskapitalistische Geschäftsmodelle oder neue Technik verursacht werden? Wie kann eine demokratische Gesellschaft vor den negativen Konsequenzen von Datenverarbeitung geschützt werden? Was ist die Rolle der betroffenen Personengruppen, (wie) können diese sich effektiv organisieren? Diese und weitere Fragen und mögliche Antworten sollen aus den verschiedenen Blickwinkeln von Technik, Recht und Ethik diskutiert werden. Grundlage bildet das neu erschienene Buch des Rechtswissenschaftlers Felix Bieker „The Right to Data Protection – Individual and Structural Dimensions of EU Data Protection Law". Mit ihm diskutieren die Ethikerin Jessica Heesen, die Informatikerin Marit Hansen sowie der Rechtswissenschaftler Gerrit Hornung. Es moderiert die Ethikerin Regina Ammicht Quinn. Wir, das Forum Privatheit, laden alle Interessierten sehr herzlich zu dieser Online-Dialogveranstaltung «Blickwinkel»: "Das Recht auf Datenschutz: Perspektiven aus Recht, Technik und Ethik" am 22. September 2022, 19.00 - 20.30 Uhr, ein. Einwahllink: https://uni-kassel.zoom.us/j/95841472026?pwd=N3R6RTYyZjhiZnN6WlR6YXdkL3IwUT09 „The Right to Data Protection – Individual and Structural Dimensions of EU Data Protection Law“ ist bei Springer/TMC Asser erschienen und als eBook und gedruckte Ausgabe verfügbar unter: https://link.springer.com/book/10.1007/978-94-6265-503-4 PD Dr. Jessica Heesen ist Leiterin des Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie leitet verschiedene Forschungsprojekte zu ethischen Fragen im Bereich Medien und Digitalisierung. Dabei geht es zum Beispiel um Meinungsfreiheit in Sozialen Medien oder um werteorientierte Entwicklung Künstlicher Intelligenz. Dr. h.c. Marit Hansen ist Landesbeauftragte für Datenschutz Schleswig-Holstein und Leiterin des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein (ULD). Sie beschäftigt sich mit grundrechtskonformer Gestaltung von Technik, insbesondere mit Datenschutz by Design und by Default. Dr. Felix Bieker, LL.M., ist juristischer Mitarbeiter im Projektreferat des Unabhängigen Landeszentrums für Datenschutz Schleswig-Holstein (ULD). Er forscht zu Grundlagen des Datenschutzes, den gesellschaftlichen Auswirkungen privater und staatlicher Überwachung sowie der Plattformökonomie. Prof. Dr. Gerrit Hornung, LL.M., ist Professor für Öffentliches Recht, IT-Recht und Umweltrecht sowie Direktor am Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung (ITeG) der Universität Kassel. Forschungsinteressen: Interdisziplinäre Forschungsprojekte v.a. in den Bereichen Datenschutz- und IT-Sicherheitsrecht, zuletzt mit Bezügen zu Künstlicher Intelligenz, schulischen Informationssystemen, biometrischen Systemen, Industrie 4.0, Beschäftigtendatenschutz, Assistenzsystemen und resilienten Städten. Prof. Dr. Regina Ammicht Quinn ist Sprecherin des Internationalen Zentrums für Ethik in den Wissenschaften (IZEW) und Leiterin des Bereichs Gesellschaft, Kultur und technischer Wandel der Universität Tübingen. Sie forscht zu grundlegenden und anwendungsbezogenen Fragen der Ethik, insbesondere an der Schnittstelle von technologischen, gesellschaftlichen und kulturellen Entwicklungen. Alle genannten Personen sind Mitglied im interdisziplinären Forschungsverbund Forum Privatheit.
19. Mai 2022
Neuerscheinung: “The Right to Data Protection – Individual and Structural Dimensions of EU Data Protection Law” von Forum Privatheit-Mitglied Dr. Felix Bieker
Forum Privatheit-Mitglied Dr. Felix Bieker stellt in seinem neu-erschienen Buch “The Right to Data Protection – Individual and Structural Dimensions of EU Data Protection Law” einen Ansatz vor, der die individuelle und strukturelle, systemische Dimension des EU-Datenschutzrechts darlegt. Er analyisiert dafür die Beziehung zwischen der EU-Charta und den relevanten sekundärrechtlichen Regelungen, z.B. der DSGVO. Zudem untersucht er die Rechtsprechung des Europäischen Gerichtshofs und die bisherigen Ansätze der Literatur zum EU-Grundrecht auf Datenschutz. Bieker stellt fest, dass die bisherigen Ansätze Datenschutz und Privatheit oft gleichsetzen und damit nicht die strukturellen Auswirkungen von Datenverarbeitung berücksichtigen. Er schlägt daher einen dualen Ansatz vor: Individualdatenschutz schützt natürliche Personen und ihre Rechte, Systemdatenschutz schützt die demokratische Gesellschaft als Ganzes vor unerwünschten Auswirkungen von Datenverarbeitung. Mit diesem dualistischen Ansatz kann das volle Potenzial eines eigenständigen Datenschutz-Grundrechts erreicht werden. Das Buch ist bei Springer/TMC Asser erschienen und als eBook und gedruckte Ausgabe verfügbar unter: https://link.springer.com/book/10.1007/978-94-6265-503-4