Menu Expand

Künstliche Intelligenz und Gefährdungshaftung im öffentlichen Recht

Cite BOOK

Style

Pauli, L. (2023). Künstliche Intelligenz und Gefährdungshaftung im öffentlichen Recht. Zur Notwendigkeit der Einführung eines speziellen Gefährdungshaftungstatbestands. Duncker & Humblot. https://doi.org/10.3790/978-3-428-58865-7
Pauli, Laura Katharina. Künstliche Intelligenz und Gefährdungshaftung im öffentlichen Recht: Zur Notwendigkeit der Einführung eines speziellen Gefährdungshaftungstatbestands. Duncker & Humblot, 2023. Book. https://doi.org/10.3790/978-3-428-58865-7
Pauli, L (2023): Künstliche Intelligenz und Gefährdungshaftung im öffentlichen Recht: Zur Notwendigkeit der Einführung eines speziellen Gefährdungshaftungstatbestands, Duncker & Humblot, [online] https://doi.org/10.3790/978-3-428-58865-7

Format

Künstliche Intelligenz und Gefährdungshaftung im öffentlichen Recht

Zur Notwendigkeit der Einführung eines speziellen Gefährdungshaftungstatbestands

Pauli, Laura Katharina

Internetrecht und Digitale Gesellschaft, Vol. 50

(2023)

Additional Information

Book Details

About The Author

Laura Katharina Pauli studierte Rechtswissenschaften an der Heinrich-Heine-Universität Düsseldorf. Nach ihrem ersten Staatsexamen arbeitete sie als wissenschaftliche Mitarbeiterin an der Heinrich-Heine-Universität Düsseldorf, zunächst am Lehrstuhl für Öffentliches Recht und Steuerrecht bei Prof. Dr. Matthias Valta, dann an der Professur für Öffentliches Recht bei Prof. Dr. Lothar Michael. Während ihres Vorbereitungsdienstes war sie von November 2021 bis Oktober 2022 bei dem OLG Düsseldorf im Rahmen eines Pilotprojekts als wissenschaftliche Mitarbeiterin beschäftigt. Seit November 2023 ist sie als Richterin auf Probe im OLG-Bezirk Düsseldorf tätig.

Abstract

KI ist eine hoch innovative, aber zugleich risikoreiche Technologie. Aufgrund ihrer Lernfähigkeit und Autonomie sind ihre Entscheidungen aus ex ante Sicht kaum vorhersehbar. Auch aus ex post Perspektive bleibt ein Transparenzdefizit bestehen. Aufgrund der mit dem Einsatz von KI-Systemen verbundenen spezifischen Risiken stellt sich die Frage, ob und inwieweit der Staat gegenüber dem Bürger KI einsetzen darf. Dabei hängt das »Ob« des hoheitlichen KI-Einsatzes entscheidend von der Reichweite der Haftung des Staates auf Sekundärebene ab. Das überkommene Staatshaftungsrecht bietet hierfür de lege lata keinen ausreichenden Sekundärrechtsschutz. Der hoheitliche KI-Einsatz wäre ohne die Implementierung eines angemessenen Haftungstatbestands auf Sekundärebene verfassungswidrig. Aus diesem Blickwinkel heraus fordert Pauli die Einführung eines speziellen öffentlich-rechtlichen Gefährdungshaftungstatbestands, den sie abschließend in einem konkreten Gesetzgebungsvorschlag ausformt.»Artificial Intelligence and Strict Liability in Public Law. On the Necessity of Introducing a Special Endangering Liability Statute«: Due to its learning ability and intransparency, the use of AI entails particular risks. In this respect, the question of whether the state may use AI vis-à-vis citizens depends crucially on the scope of liability at the secondary level. The current state liability law does not provide sufficient secondary legal protection. Instead, there is a need for the introduction of a public-law strict liability statute that provides adequate compensation for the AI-specific risks.

Table of Contents

Section Title Page Action Price
Vorwort 5
Inhaltsverzeichnis 7
Abkürzungsverzeichnis 13
Kapitel 1: Künstliche Intelligenz als Herausforderung für das öffentliche Haftungsrecht 17
A. Untersuchungsgegenstand 17
B. Terminologische und technische Grundlagen der künstlichen Intelligenz 20
I. Begriffsherkunft 20
II. Definitionsversuch der Hochrangigen Expertengruppe für Künstliche Intelligenz 23
III. Hiesiger Definitionsansatz 24
1. Lernmethodik und Intransparenz 26
a) Maschinelles Lernen (selbstlernende Algorithmen) 26
aa) Überwachtes Lernen 27
bb) Verstärkendes Lernen 28
cc) Unüberwachtes Lernen 29
dd) Semi-überwachtes Lernen 29
b) Tiefgehendes Lernen (künstliche neuronale Netze) 30
c) Abgrenzung zu Algorithmen im herkömmlichen Sinne 31
2. Autonomie 32
3. Entscheidung für die schwache KI-Hypothese 35
C. Themeneingrenzung 39
D. Methodik der Arbeit 41
Kapitel 2: Historische und dogmatische Herleitung des Instituts der Gefährdungshaftung im bürgerlichen und öffentlichen Recht 43
A. Die zivilrechtliche Gefährdungshaftung als Orientierungsmarke 43
I. Konzeption und historische Entwicklung der Gefährdungshaftung 43
II. Grundlagen der Schadensdogmatik 49
III. Rechtswidrigkeitslosigkeit 50
IV. Keine Analogiefähigkeit spezieller Gefährdungshaftungstatbestände 53
1. Vorbehalt des Gesetzes 53
2. Enumerationsprinzip 55
V. Ergebnis 59
B. Das Institut der öffentlich-rechtlichen Gefährdungshaftung 59
I. Historische Entwicklung 60
1. Naturrecht 60
2. Anerkennung des Staates als (Haftungs-)Subjekt 62
3. Allgemeines Preußisches Landrecht 67
4. Von der Kaiserzeit bis zur Weimarer Zeit 69
a) Gesetzgebungsakte 69
b) Ansichten der Rechtsgelehrten 73
5. Nationalsozialismus 76
6. Streit um die Anerkennung des Instituts von der Nachkriegszeit bis zu den 1980er Jahren 78
a) Ernst Forsthoff und Karl Zeidler als Verfechter des Instituts in den 1950er Jahren 78
aa) Ernst Forsthoff 79
bb) Karl Zeidler 83
b) Der 41. Deutsche Juristentag im Jahr 1955 86
c) Staatsrechtslehrertagung im Jahr 1961 88
d) Die erste Verkehrsampel-Entscheidung des BGH im Jahr 1970 91
aa) Gegenstand der Entscheidung 92
bb) Kritik aus dem Schrifttum 93
cc) Eigene Stellungnahme 94
dd) Ergebnis 97
e) Gescheiterter Versuch einer Kodifikation der Staatshaftung im Jahr 1981 98
aa) Hintergrund und Regelungsziel des Staatshaftungsgesetzes 98
bb) Tendenzen gen Gefährdungshaftung 99
cc) Konsequenzen aus dem gescheiterten Staatshaftungsgesetz 102
f) Die zweite Verkehrsampel-Entscheidung des BGH im Jahr 1986 103
aa) Gegenstand und Einordnung der Entscheidung 103
bb) Überschreiten der Grenzen richterlicher Rechtsfortbildung 106
(1) Maßstabsbildung 106
(2) Gefährdungshaftung als Systembruch 109
(3) Gewaltenteilungsprinzip 110
(4) Haushaltsprärogative des Parlaments 111
7. Fazit 112
II. Dogmatische Anknüpfungspunkte einer Gefährdungshaftung im System des öffentlichen Haftungsrechts 113
1. Verobjektivierte Erweiterung der Amtshaftung 113
2. Garantiehaftung 116
3. Enteignungsgleicher Eingriff 116
4. Allgemeiner Aufopferungsanspruch 118
5. Billigkeitshaftung 120
6. Ergebnis 120
III. Herleitung einer Gefährdungshaftung als eigenständiges Institut des öffentlichen Haftungsrechts 121
1. Zivilrechtliche Haftungsgründe 121
2. Gegenüberstellung von zivilem und öffentlichem Haftungsrecht 122
3. Beherrschbarkeit der Gefahrenquelle sowie Vor- und Nachteilsprinzip als tragende Prinzipien der öffentlich-rechtlichen Gefährdungshaftung 123
4. Verfassungsrechtliches Gebot einer Gefährdungshaftung 125
5. Ergebnis 127
IV. Anerkennung qua richterlicher Rechtsfortbildung oder de lege ferenda? 128
V. Charakteristika einer allgemeinen Gefährdungshaftung im öffentlichen Recht 129
1. Hoheitlich verursachte Gefahrenlage 130
2. Erfolgseintritt und Risikozusammenhang 131
3. Kein Verschuldenserfordernis 132
4. Rechtswidrigkeitslosigkeit 132
VI. Ergebnis 133
Kapitel 3: Notwendigkeit einer öffentlich-rechtlichen Gefährdungshaftung beim hoheitlichen Einsatz von künstlicher Intelligenz 135
A. Verfassungsrechtliches Transparenzdefizit auf Primärebene 135
B. Künstliche Intelligenz als eigenständiges Haftungssubjekt? 138
I. Begründungsansätze zur Etablierung einer Rechtspersönlichkeit 138
1. Rechtsfähigkeit kraft Willensmacht 139
2. Rechtsfähigkeit kraft Verhaltenskontrolle 140
3. Rechtsfähigkeit kraft sozialer Anerkennung 141
4. Rechtsfähigkeit kraft moralischer Verantwortung 141
5. Teilrechtsfähigkeit als vermittelnder Ansatz 143
II. Geschäfts- und Deliktsfähigkeit 144
1. Geschäftsfähigkeit 145
2. Deliktsfähigkeit 147
III. (Teil-)Rechtsfähigkeit von KI-Systemen de lege ferenda? 148
IV. Ergebnis: Keine Teilrechtsfähigkeit de lege ferenda 150
C. Unzulänglichkeit der tradierten staatshaftungsrechtlichen Institute 151
I. Amtshaftungsanspruch 151
1. Jemand in Ausübung eines ihm anvertrauten öffentlichen Amtes 152
a) Private Programmierer als Zurechnungssubjekte 152
aa) Programmierer als Beliehene? 153
bb) Programmierer als Verwaltungshelfer? 156
b) Künstliche Intelligenz als Zurechnungssubjekt? 158
aa) Künstliche Intelligenz als Beamter? 158
bb) Künstliche Intelligenz als Beliehener oder Verwaltungshelfer? 159
cc) Tatbestandsausschluss bei „ausbrechenden KI-Entscheidungen“ 159
2. Amtspflichtverletzung und Rechtswidrigkeit 160
a) Amtspflichtverletzung der Programmierer 161
b) Amtspflichtverletzung der künstlichen Intelligenz? 162
c) Amtspflichtverletzung des Amtsträgers im Rahmen der Auswahl, Überwachung und des Einsatzes von künstlicher Intelligenz 165
aa) Auswahl 165
(1) Auswahl des KI-Systems 166
(2) Auswahl der Trainingsdaten 168
bb) Bedienung 169
cc) Überwachung 170
3. Kausaler Schaden 171
a) Beweisschwierigkeiten 171
b) Lösungsansätze 172
c) Ergebnis 175
4. Verschulden 175
a) Verschulden der Programmierer 176
b) Verschulden der künstlichen Intelligenz? 176
c) Verschulden des Amtswalters im Rahmen der Auswahl, Überwachung und des Einsatzes von künstlicher Intelligenz? 178
5. Rechtsfolge: Schadensersatz in Geld 180
6. Ergebnis 180
II. Haftung des Hoheitsträgers aus öffentlich-rechtlichem Schuldverhältnis 181
III. Haftung des Hoheitsträgers analog § 831 BGB 182
IV. Enteignender und enteignungsgleicher Eingriff sowie Aufopferung 186
1. Enteignender und enteignungsgleicher Eingriff 187
a) Eigentum als Schutzgut 187
b) Hoheitlicher unmittelbarer Eingriff 189
aa) Wandel des Eingriffskriteriums 190
bb) Spezielle KI-Gefährdungslagen als Teilmenge des enteignenden bzw. enteignungsgleichen Eingriffs? 191
c) Sonderopfer bzw. Rechtswidrigkeit als Indiz 192
d) Rechtsfolge: Entschädigung 194
2. Allgemeiner Aufopferungsanspruch 195
a) Anspruchsvoraussetzungen 196
b) Rechtsfolge: Entschädigung einschließlich Schmerzensgeld 198
3. Ergebnis 198
V. Abschließende Fallbeispiele 199
D. Gefährdungshaftung als Lösungsmodell 200
I. Zivilrecht 200
1. Zivilrechtliche Überlegungen zur Einführung einer Gefährdungshaftung für KI-Systeme 200
2. Kritik an einem Gefährdungshaftungstatbestand für KI-Systeme 203
3. Eigene Stellungnahme 203
II. Öffentliches Recht 205
1. Verfassungsrechtliche Indikation für eine spezielle öffentlich-rechtliche Gefährdungshaftung de lege ferenda 205
2. Kein Durchgreifen zivilrechtlicher Kritikpunkte 209
3. Zwischenergebnis 209
III. Der Gesetzgeber als Adressat des hiesigen Lösungsansatzes 210
Kapitel 4: Öffentlich-rechtliche Gefährdungshaftung für den exekutiven Einsatz von KI-Systemen de lege ferenda 213
A. Gesetzgebungsvorschlag 213
I. Gesetzgeberische Szenarien 213
1. Kodifizierung des Staatshaftungsrechts 214
2. KI-spezifische Regelungen in einem bestimmten Bereich 214
3. Zivilrechtlicher Gefährdungshaftungstatbestand für KI-Systeme 215
II. Gesetzgeberische Ausgestaltung 216
1. Ausformung des Tatbestands 216
a) Norminhalt und Normadressat 216
b) Typisierung des Gefährdungshaftungstatbestands 219
aa) KI-Gefahr 220
bb) Rechtsgutverletzung 221
cc) Haftungsbegründende Kausalität 221
dd) Schaden und haftungsausfüllende Kausalität 222
ee) Risikozusammenhang 223
(1) Gesetzgeberische Ausgestaltung des Risikozusammenhangs 223
(2) Typischer KI-Schaden 223
(3) Beweislast 224
2. Rechtsfolge 226
a) Inhalt und Umfang 227
b) Haftungsausschlüsse und -begrenzungen 227
aa) Haftungsausschluss bei unabwendbarem Ereignis oder höherer Gewalt? 227
bb) Haftungsbegrenzung durch Höchstbetragshaftung? 229
cc) Haftungsbegrenzung bei Mitverschulden 230
3. Verjährung und Anspruchskonkurrenzen 231
a) Verjährung 231
b) Anspruchskonkurrenzen 231
4. Rechtsweg und Zuständigkeit 231
a) „Große Lösung“ 232
b) „Kleine Lösung“ 234
5. Regelungsvorschlag 236
B. Ausblick 238
Literaturverzeichnis 241
Sachwortverzeichnis 265