Menu Expand

Justiz und Algorithmen

Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung

Nink, David

Internetrecht und Digitale Gesellschaft, Vol. 25

(2021)

Additional Information

Book Details

Pricing

About The Author

David Nink studierte von 2009 bis 2013 Rechtswissenschaften an der Johannes Gutenberg-Universität Mainz. Im Anschluss an das zweite Staatsexamen 2015 war er als Forschungsreferent und Koordinator des Programmbereichs Digitalisierung am Deutschen Forschungsinstitut für öffentliche Verwaltung in Speyer tätig, wo er insbesondere zum Datenschutzrecht sowie zu Rechtsfragen der Digitalisierung und der Regulierung neuer Technologien forschte. Im Frühjahr 2020 wurde er mit einer von Prof. Dr. Mario Martini betreuten Arbeit promoviert. David Nink ist Rechtsanwalt für IT- und Datenschutzrecht bei einer Wirtschaftskanzlei in Frankfurt. David Nink studied law at the Johannes Gutenberg University Mainz from 2009 to 2013. Following the second state examination in 2015, he worked as a research fellow and coordinator of the digitisation programme area at the German Research Institute for Public Administration in Speyer, where he researched and published on public law, in particular on data protection law, legal issues of digitisation and the regulation of new technologies. In spring 2020 he received his doctorate with a thesis supervised by Prof Dr Mario Martini. David Nink works as a lawyer for IT and data protection law in Frankfurt.

Abstract

Richterliche Rechtsfindung ist fehleranfällig. Was unspektakulär klingt, belegen neuere empirische Daten eindrucksvoll. Durch Rationalitätsschwächen kann es zu Verzerrungen und jedenfalls dazu kommen, dass sachfremde Aspekte einfließen. Können Algorithmen und »Künstliche Intelligenz« dazu beitragen, dass gerichtliche Entscheidungen »rationaler« werden? Überlegungen zur Automatisierung im Recht sind nicht neu, müssen aber aufgrund neuer technischer Möglichkeiten und Erkenntnisse zur Entscheidungsfindung neu gedacht werden. Eine vollständige Automatisierung scheidet allerdings aus. Einzelfallgerechtigkeit zu gewährleisten, ist in vollautomatisierten Verfahren nicht möglich. Neben technischen sind es zuvorderst verfassungsrechtliche Hürden, die einem solchen Vorhaben Grenzen setzten. Ein Verbot algorithmenbasierter Unterstützungssysteme ist dem Grundgesetz indes nicht zu entnehmen. Sofern es gelingt, den Systemen rechtsstaatliche Funktionsweisen einzuhauchen, können neue Technologien die richterliche Rechtsfindung sinnvoll unterstützen. »Judiciary and Algorithms. On the Weaknesses of Human Decision-Making and the Possibilities of New Technologies in Jurisprudence«

Judicial decision-making is not free of errors. What sounds unspectacular is impressively demonstrated by new empirical data. The central question of the study is: Can algorithms and »artificial intelligence« – in accordance with the German constitution – contribute to making court decisions more »rational«? Although considerations of automation in law are not new, they need to be rethought due to new technical possibilities and a better understanding of human decision-making.

Table of Contents

Section Title Page Action Price
Vorwort 5
Inhaltsverzeichnis 7
A. Einleitung 19
I. Einführung 19
II. Ziel der Arbeit 24
III. Gang der Darstellung 26
B. Erster Teil: Status quo richterlicher Entscheidungsfindung 28
I. Problemaufriss – Menschliche Entscheidungen und die Fehleranfälligkeit juristischer Entscheidungsträger 28
1. Zustandekommen menschlicher Entscheidungen – Struktur des Entscheidungsprozesses 29
a) Phasenmodell 30
b) Entscheidung als (objektive) Informationsverarbeitung? 31
c) Flexible Rationalität? 32
d) Unvollständige Informationslage 32
e) Die Diskussion um den freien Willen 33
f) Heuristiken 35
g) Erkenntnistheorie und Fallibilismus 37
2. Die Subsumtion als Bestandteil juristischer Entscheidungsfindung 37
3. Gefühle, Emotionen und das Recht 40
a) Begriffe und Hintergrund 40
b) Wie sich Emotionen auf Entscheidungen auswirken 41
aa) Befund 41
bb) Phänomenologie und normative Einhegung 42
cc) Grenzen 44
4. Denkfehler, Rationalitätsschwächen und weitere rechtsfremde Einflüsse – Beispiele und Studien (Auswahl) 45
a) Einführung 45
b) Implizite Assoziationen 47
c) Priming und Framing 50
d) Ankereffekt 53
aa) Einführung 53
bb) Empirischer Nachweis und konkrete Auswirkungen 54
cc) Ausblick 58
e) „Peak-End-Regel“-Verzerrung 59
aa) Einführung 59
bb) Empirischer Nachweis und konkrete Auswirkungen 60
cc) Einordnung 61
f) Rückschaufehler 61
g) Confirmation Bias (Bestätigungsfehler) 63
aa) Einführung 63
bb) Auswirkungen und Folgen 65
h) Einfluss außergerichtlicher Meinungen, Ansichten und Ereignisse 66
aa) Einfluss der öffentlichen Meinung – Beispiel BVerfG 66
(1) Empirische Nachweise 67
(2) Aussagekraft und Erklärungsansätze 68
(3) Parteinähe der Bundesverfassungsrichter 70
(4) Exkurs: Vorhersage obergerichtlicher Entscheidungen 71
bb) Einfluss der Medien 71
cc) Einfluss von Sportereignissen auf gerichtliche Entscheidungen 72
dd) Schlafmangel und der Einfluss der Zeitumstellung 73
ee) Geburtstag des Angeklagten 73
ff) Hungrige Richter, härtere Urteile? 74
(1) Empirischer Nachweis – Bewährungsentscheidungen israelischer Richter 74
(2) Kritik: Begrenzte Aussagekraft der Studie 75
(3) Resümee 75
II. Rechtsprechung und Diskriminierungspotenzial 76
1. Normative Anknüpfungspunkte möglicher Diskriminierungen 77
2. (Selbst-)Verständnis der richterlichen Tätigkeit 77
3. Schwächen in der „Quantität der Sachverhaltsanalyse“? 79
4. Rationalität in der Beweiswürdigung 80
a) Allgemeine Problemstellung 80
b) Problem inkorrekter Zeugenaussagen 82
5. „Verborgene“ Strafzumessung als Diskriminierungsrisiko? 83
a) Einführung 83
b) Unterschiedliche Strafzumessungspraxis je nach Region bzw. Gerichtsbezirk 84
c) Beispiel Ungleichbehandlung aufgrund der Ethnie 86
d) Beispiel Ungleichbehandlung aufgrund des Geschlechts 89
6. Empirie strafrechtlicher Fehlurteile in Deutschland? 91
III. Vorgaben an die richterliche Rechtsfindung 94
1. Rechtstheoretischer Unterbau 95
a) Rechtspositivismus und Prinzipientheorie 95
b) Eingeschränkte praktische Bedeutung 98
c) Konsenstheoretische Ansätze 100
d) Subjektiv richtige Entscheidungen 101
2. Die richterliche Unabhängigkeit als Basis (Überblick) 102
a) Sachliche Unabhängigkeit 102
b) Persönliche Unabhängigkeit 103
c) Innere Unabhängigkeit? 103
aa) Herleitung 104
bb) Gerechtigkeit und richterliche Ethik? 105
(1) Hintergrund 106
(2) Konkretisierung im DRiG 106
3. Was das Recht vom Richter fordert 109
a) Die Gesetzesbindung als Legitimierung und „Disziplinierung“ 109
aa) Grundsätze 109
bb) Sonderfall „Richterrecht“ 110
(1) Verfassungsrechtliche Zulässigkeit 110
(2) Erscheinungsformen 111
(3) Pflicht zur Rechtsfortbildung? 112
b) Konkrete Vorgaben 113
aa) Kein Verstoß gegen Prozessrecht 113
bb) Im Rahmen des Prozessrechts: Entscheidung, die materiell-rechtlich der objektiven Rechtslage entspricht 114
cc) Auslegung 115
(1) Auslegungsmethoden 115
(2) Diskriminierungsverbot und Gleichheitsgrundsatz 118
(a) Spezielles Diskriminierungsverbot – keine Anknüpfung an irrelevante Merkmale 118
(b) Rechtsanwendungsgleichheit 118
(3) Rechtssicherheit 120
dd) Gegebenenfalls: Vorlagepflichten 121
ee) Nachvollziehbare Begründung 122
(1) Normativer Hintergrund 122
(2) Inhaltliche Anforderungen: Widerspruchsfreiheit, Vollständigkeit, Kohärenz 125
(3) Aufbau 125
(a) Zivilprozessuales Urteil 126
(b) Strafrechtliches Urteil 126
c) Kodifizierte äußere Grenzen 127
aa) Rechtsbeugung 127
bb) Ausschluss und Ablehnung 128
4. Zwischenfazit 129
IV. Strategien gegen Rationalitätsschwächen? 130
1. Betroffene Entscheidungsformen 130
2. Zielbestimmung 130
3. Erforschung der juristischen Entscheidungsfindung in Deutschland ausbauen 131
4. Abhilfe 131
a) „Debiasing“ 131
b) Juristische Aus- und Weiterbildung, Organisation und Ausgestaltung richterlicher Tätigkeit 133
V. Fazit des ersten Teils (B) 134
1. Zwischenergebnis 134
2. Ausblick: Rationalisierung und Automatisierung als Lösung? 138
C. Zweiter Teil: Neue Technologien in der richterlichen Entscheidungsfindung – Zu den Grenzen eines „Smart Judging“ 139
I. Einführung 139
1. Vorabüberlegungen 139
2. Begriffe, Entwicklungen, Auswirkungen 143
a) Begriffe und Einordnung in den juristischen Kontext 143
aa) Algorithmus 143
bb) Expertensystem 144
cc) Big Data 145
dd) Künstliche Intelligenz 146
(1) Überblick 146
(2) Maschinelles Lernen 147
(3) Künstliche neuronale Netze 149
(4) Statische und dynamische Systeme 149
ee) Neue Technologien und Automatisierung 150
ff) Entscheidungsunterstützungssystem 151
gg) Autonome Systeme 151
b) Bisherige Automatisierungsbeispiele und aktuelle Entwicklungen 152
aa) Beispiele im hoheitlichen Einsatz (allgemein) 153
(1) Besteuerungsverfahren 153
(2) Allgemeines und Sozialverwaltungsverfahrensrecht 155
(3) Zivilgerichtliches Mahnverfahren 156
(4) Ordnungswidrigkeitenrecht 157
bb) „Legal Tech“ und Beispiele aus der Rechtsberatung 158
cc) Aktuelle Entwicklungen im Kernbereich der Justiz 161
(1) Elektronische Kommunikation und Aktenführung 162
(2) Strukturierung und Beweisführung 163
(3) Zwischenfazit und Ausblick 164
c) (Mögliche) Auswirkungen der Digitalisierung auf die juristische Arbeit insgesamt 165
II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme 167
1. Diskriminierungspotenzial 167
2. Korrelation und Kausalität 168
3. Reduzierung auf die Vergangenheit 170
4. Algorithmen als Projektion der Werteinstellungen ihrer Schöpfer 172
a) Machine Bias und Verfestigung 172
b) „Rationalisierung der Rationalitätsschwächen“ 173
c) Gefahr unzulässiger Rückschlüsse 174
5. Zwischenfazit 176
III. Technische Hürden einer automatisierten Rechtsfindung 177
1. Vorab: Keine Vollautomation gerichtlicher Verfahren einschließlich Sachverhaltsermittlung 177
a) Sachverhaltsaufklärung 177
b) Informationslücken 178
c) „Harte“ und „weiche“ Fakten 179
d) Ausblick 180
2. Ermessen 180
a) Ausgangslage: Grundsätzliches zum Ermessensbegriff 181
aa) Ermessen im Verwaltungsverfahren 181
bb) Ermessen in der Rechtsprechung 182
(1) „Verfahrensermessen“ 183
(2) Rechtsfolgenauswahl – das materielle Entscheidungsermessen des Richters 183
b) Grenzen der Automation im Verwaltungsrecht – § 35a VwVfG und Parallelnormen 185
c) Über die mögliche Parallele zwischen Verwaltungsverfahren und Gerichtsverfahren 187
aa) Automatisierung durch Verwaltungsvorschriften? 188
bb) Automatisierung und der Untersuchungsgrundsatz im Verwaltungsverfahren 190
cc) Begrenzte Vergleichbarkeit von Verwaltungsverfahren und richterlichen Entscheidungen 191
(1) Schematisierung in der Rechtsprechung? 191
(2) Der „Regelfall“ vor Gericht? 192
d) Zwischenergebnis 196
3. Einzelfälle und Ausnahmen – Individualgerechtigkeit 196
a) Automatisierung und Einzelfallgerechtigkeit – ein Widerspruch? 197
b) Menschliche versus maschinelle Entscheidung 199
aa) Chancen – Was Technik kann 199
bb) Risiken – Was Technik nicht kann 201
(1) Grundsätzliches 201
(2) Statische Entscheidungsfindung – rein regelbasierte Systeme 202
(3) Dynamische Entscheidungsfindung – lernende Systeme und Künstliche Intelligenz 204
cc) Maßstab der Zielbestimmung – Vorgaben an die gerichtliche Entscheidungsfindung 205
c) Zwischenergebnis 207
4. Automatisierung und Sprache 208
a) Zum Sprachverständnis 209
b) Natürliche und formale Sprache 210
aa) Einführung – Formalisierung der Rechtssprache? 210
bb) Unbestimmte Rechtsbegriffe und Generalklauseln 213
cc) Herangehensweise und Kontrolle 214
c) Möglichkeiten der Fuzzy-Logik 217
d) Semantik und Syntax – rechtstheoretische Überlegungen 217
e) Widerspruchsfreiheit 221
5. Wertungen und Filter 222
a) Bewertungen als Teil der Informationsverarbeitung – Wertung und Realität 222
b) Wertungen und Filter als Teil des Rechtsfindungsprozesses 224
c) Wertungen bis ins Detail? – Strukturelle Grenzen 225
6. Auslegung 226
7. Die Begründung juristischer Entscheidungen 228
8. Automatisiertes Richterrecht? 229
9. Judiz 231
a) Empathie 231
aa) Grundlagen 231
bb) Maschinen und Empathie? 232
cc) Empathie in der Rechtsfindung 232
dd) Empathie als unverzichtbarer Bestandteil? 235
b) Kreativität 235
c) Ethik der Algorithmen? 237
d) Das Judiz im engeren Sinne, Intuition und emotionale Kompetenz 238
10. Zwischenfazit 239
a) Wo Maschinen im Vorteil sind 239
b) Maschinentheoretische Hürde 239
c) Fehler maschineller Entscheidungsfindung 241
d) Zusammenfassung und Ausblick 242
IV. Unionsrechtliche Vorgaben zur Automatisierung gerichtlicher Entscheidungen (Überblick) 245
1. Datenschutzrechtliche Vorgaben der Datenschutz-Grundverordnung 246
a) Anwendungsbereich der DSGVO in gerichtlichen Verfahren 246
aa) Grundsatz 246
bb) Sonderfall Strafprozess – Anwendungsbereich der RL (EU) 2018/680 („JI-RL“) 247
b) Rechtsgrundlage der Datenverarbeitung als solcher nach der DSGVO 249
c) Automatisierte Entscheidungen und Profiling (Art. 22 DSGVO) 250
aa) Grundsatz – Verbot bestimmter vollautomatisierter Entscheidungen (Art. 22 Abs. 1) 250
bb) Ausnahmen (Art. 22 Abs. 2) 251
(1) Ausdrückliche freiwillige Einwilligung (Abs. 2 lit. c) 252
(2) Öffnungsklausel (Abs. 2 lit. b) 253
cc) Weitere Vorgaben der DSGVO (Auswahl) 255
(1) Informationen und Auskunft 255
(2) Algorithmische Ethik am Beispiel des Rechts auf Erläuterung 256
(3) Datenminimierung 257
d) Zwischenergebnis 258
2. Datenschutzrechtliche Vorgaben der JI-RL für das Strafverfahren 259
3. Zwischenfazit 260
V. Verfassungsrechtliche Direktiven 260
1. Art. 92 Hs. 1 GG und die Frage, ob eine Maschine „Richter“ sein kann 261
a) Die Anknüpfungspunkte in Art. 92 Hs. 1 GG 262
aa) Der Begriff der „rechtsprechenden Gewalt“ 262
(1) Allgemeines 262
(2) Rechtsprechungsbegriff des BVerfG 263
(3) Zwischenfazit: Wer ist „Richter“? 265
bb) Der Richter und die Anvertrauens-Formel in Art. 92 Hs. 1 GG 265
b) Wortlaut 266
c) Historie 267
d) Systematik 270
aa) Der Richterbegriff im Verfassungsgefüge 270
(1) Richterernennung 270
(2) Unabhängigkeit 270
bb) Ergebnisrationalität und Vorgangswert 271
e) Telos 272
aa) Unterbau – Gewaltenteilung und Rechtsprechungsmonopol 272
(1) Recht auf eine richterliche Tatsacheninstanz 273
(2) Gefahr der „Privatisierung“ durch IT-Systeme privatwirtschaftlicher Unternehmen 274
(3) Zwischenresümee 276
bb) Sinn und Zweck – Kompetenzen 276
(1) Der rechtsgelehrte Richter 276
(2) Rechtsgelehrte informationstechnische Systeme? 280
cc) Strukturelle Grenzen der Automatisierung – hypothetisch: Maschine erreicht Kompetenz des menschlichen Richters 281
f) Konkretisierungen im DRiG 282
g) Landesrecht 284
aa) Terminologie in den Landesverfassungen 284
bb) Einfachgesetzliches Landesrecht 286
h) Richter und Ewigkeitsgarantie 287
i) Zwischenergebnis 287
2. (Teil-)Automatisierung und richterliche Unabhängigkeit, Art. 97 Abs. 1 GG 288
a) Problemstellung – Algorithmen und die sachliche Unabhängigkeit 288
b) Beispiel Metadaten in der Justiz 289
c) Rückschluss auf die Grenzen eines IT-Einsatzes 291
aa) Parallelen zur Dienstaufsicht 291
bb) Überlegungen zur praktischen Ausgestaltung 293
cc) Grenzen des Einsatzes entscheidungsunterstützender Systeme 295
(1) „Automation Bias“ und das Risiko der faktischen Bindungswirkung 295
(2) Schlussfolgerungen 296
3. Gesetzlicher Richter, Art. 101 Abs. 1 S. 2 GG 298
a) Begriff und Grundsätze 298
b) Exkurs: Gesetzlicher Richter und Privatautonomie 300
c) Bedeutung des Art. 101 Abs. 1 S. 2 GG für den Algorithmeneinsatz in der Justiz 301
4. Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) 302
a) Inhalt und Umfang des Anspruchs 303
b) Bedeutung und Rückschluss auf Algorithmeneinsatz in der Justiz 304
aa) Verbot der vollständigen (Verfahrens-)Automatisierung 304
bb) Kein Verbot entscheidungsunterstützender Algorithmen 305
(1) Anleihen in den Prozessordnungen 306
(2) Rechtliches Gehör und das Problem drohender ­„Übernahmeautomatismen“ 307
5. Grundrecht auf effektiven Rechtsschutz (Art. 19 Abs. 4 GG) 308
a) Rechtscharakter und grundsätzliche Bedeutung des Art. 19 Abs. 4 GG 308
b) Technikeinsatz als Beschleunigungsfaktor gerichtlicher Entscheidungen 309
6. Justizgewährungsanspruch (aus Rechtsstaatsprinzip) 310
7. Das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) und seine Implikationen auf den justiziellen Algorithmeneinsatz 311
a) Gesetzesbindung 311
b) Gewaltenteilung 313
c) Faires Verfahren – Art. 6 EMRK 314
8. Demokratieprinzip und Volkssouveränität – die demokratische Legitimation gerichtlicher Entscheidungen 317
a) Grundsätze 317
b) Demokratische Legitimation der Judikative 318
c) Demokratische Legitimation beim Einsatz automatischer Systeme in der Justiz 321
aa) Problemlage 321
bb) Folgerungen 323
(1) Funktionell-institutionelle sowie organisatorisch-personelle Legitimation 323
(2) Sachlich-inhaltliche Legitimation 324
(a) Unterscheidung nach der Art der denkbaren Systeme 325
(aa) Regelbasierte Entscheidungssysteme 325
(bb) Dynamische Entscheidungssysteme 325
(cc) Parallele zum Verwaltungsverfahren 327
(b) Praktische Umsetzung? 328
cc) Demokratische Legitimation durch (Teil-)Automatisierung? 329
9. Transparenz und Akzeptanz 330
a) Transparenz 331
aa) Begriff und Inhalt 331
bb) Organisatorische Transparenz – Zurechnung 332
cc) Inhaltliche Transparenz – Nachvollziehbarkeit 334
(1) Grundsatz 334
(2) Unterscheidung nach Art der Systeme 335
dd) Vergleich zu menschlichen Entscheidungen 337
ee) Lösungsansatz – die Begründung als zentrale Säule der Transparenz 338
(1) Information über den Einsatz eines Assistenzsystems (Ob) 338
(2) Informationen zur Funktionsweise (Wie) 339
(3) Rechtliche und technische Nachvollziehbarkeit 340
b) Akzeptanz 343
aa) Grundsätzliches 343
bb) Bezugspunkt der Akzeptanz 343
cc) Akzeptanz durch Transparenz 345
dd) Unterscheidung nach Verfahren 346
10. Die Menschenwürde und das Menschenbild des Grundgesetzes 346
a) Begriff und Inhalt 347
b) Die Menschenwürde als Hindernis einer vollautomatisierten Justiz 348
aa) Grenze 348
bb) Keine Reduktion des Menschen auf Zahlenlogik 349
cc) Mögliche Kontraindikation 349
c) Ausblick – keine Rationalisierung um jeden Preis 351
11. Recht auf informationelle Selbstbestimmung – Achtung des Datenschutzes bei der Entwicklung und Nutzung algorithmenbasierter Unterstützungssysteme 353
12. Zwischenfazit 354
VI. Fazit des zweiten Teils (C) 355
D. Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung in der Strafrechtspflege – Möglichkeiten und Ausblick 359
I. Einführung 359
1. Vorabüberlegungen 359
2. Motivation 360
II. Zu den Einsatzmöglichkeiten von ­Entscheidungsunterstützungssystemen (Überblick) 363
1. Notwendigkeit der Kategorisierung der Einsatzmöglichkeiten 363
a) Rechtsgebiet 363
b) Instanz bzw. „Endgültigkeit“ 364
c) Art und Wesen der Entscheidung sowie Verfahrensstadien 364
d) Entscheidungsteile und Gesamtentscheidung 365
2. Kontrolle justiziell eingesetzter Entscheidungsunterstützungssysteme 365
a) Einfachgesetzlich verankerte Grundsätze und Formalia – Lex lata 365
aa) Mündlichkeitsgrundsatz 366
bb) Unterschriften der Berufsrichter 368
b) Bewertung und Nachjustierung 368
c) IT-Sicherheit 369
d) Lex ferenda und Gestaltungsvorschläge 370
aa) Mut zum Normativen 370
bb) Plädoyer für eine frühzeitige Grenzziehung – Garantie der menschlichen Entscheidung 372
cc) Weitere allgemeine Vorschläge und Vorgaben 373
III. Entscheidungsunterstützende Systeme im Strafverfahren nach US-amerikanischem Vorbild? 375
1. Modell einer Risikobewertung – der COMPAS-Algorithmus 376
a) Konkreter Einsatz und Funktionsweise 376
b) Zulässigkeit (nach US-Recht) 378
c) Fragliche Wirksamkeit 379
d) Diskriminierungsrisiken und Unfairness 381
aa) Ergebnisse einer umfassenden Datenauswertung 381
bb) Relativierung der Vorwürfe – verschiedene Fairnessmaßstäbe 382
e) Mangelnde Transparenz 385
2. Der US-amerikanische Strafprozess und seine wesentlichen Unterschiede zum deutschen Recht 386
3. Zwischenergebnis und Ausblick 387
IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme im Strafverfahren (Überblick) 388
1. Vorab: Risikoprognosen auch im deutschen Strafrecht 388
2. Technisch-praktische Herangehensweise (Überblick) 390
a) Notwendigkeit interdisziplinärer Zusammenarbeit 390
b) Datenbasis 390
c) Statische regelbasierte und dynamische datenbasierte Systeme 392
d) Regression und Klassifikation 394
3. In Betracht kommende Anwendungsszenarien 396
a) Untersuchungshaft 397
aa) Gesetzliche Vorgaben 397
bb) Kein normativer Ausschluss algorithmenbasierter Unterstützung, insbesondere für die Prüfung der Haftgründe 397
cc) Technische Weichenstellungen und erste positive Ergebnisse 398
dd) Grenze: qualitative Wertungsfragen und Verhältnismäßigkeit 401
b) Strafzumessung 402
aa) Normative Vorgaben und Rechtsprechungspraxis 402
bb) Rationalisierung durch Strafzumessungstabellen? 404
cc) Algorithmenbasierte Entscheidungsunterstützung 406
(1) Stand der Strafzumessungsdogmatik als Hürde 407
(2) Konzeption 409
(a) Skalen und Fuzzy-Logik – Entscheidungsassistenz bei Eigentums- und Vermögensdelikten 409
(b) Datenbasierte Systeme – Ausblick und „Problem“ der fehlenden präjudiziellen Wirkung 412
(3) Zwischenergebnis und Praxisbezug der Überlegungen 414
c) Strafaussetzung zur Bewährung 416
aa) Die normativen Vorgaben in § 56 und §§ 57, 57a StGB 416
(1) Strafaussetzung zur Bewährung – die Sozialprognose nach § 56 StGB 416
(2) Aussetzung eines Strafrests zur Bewährung (§§ 57, 57a StGB) 417
bb) Raum und Grenzen für eine algorithmische Assistenz 419
d) Ausweitung des offenen Vollzugs 421
4. Rechtskonformität der skizzierten Anwendungsbeispiele (Standortbestimmung) 422
a) Entscheidungsunterstützung und richterliche Unabhängigkeit im Strafprozess 422
aa) Grenzen und Zielrichtung 422
bb) Maßnahmen zur rechtskonformen Ausgestaltung – gegen eine faktische Prädeterminierung und den Automation Bias 424
cc) Freie Beweiswürdigung im Strafprozess 427
b) Verfassungsrechtlich-organisatorische Vorgaben für Freiheitsentziehungen (Art. 104 GG) 428
c) Überlegungen zur Gesetzesbindung 429
aa) Datenbasis und Entscheidungsgrundlage 429
(1) Maßstab der Gesetzesbindung entscheidungsunterstützender Systeme 429
(2) Fortschreiben der Rationalitätsschwächen 431
(3) Musterfälle 431
bb) Kombination aus induktiven und deduktiven Verfahren 433
cc) Verfahrensrechtliche Begründungspflicht am Beispiel der Strafzumessung 434
dd) Besonders geschützte Merkmale und Diskriminierungsschutz 435
d) Zieldefinition und Fairnessmaßstab 437
5. Zwischenergebnis 439
V. Weitere Vorschläge zur Entscheidungsunterstützung – Anwendungsszenarien (Ausblick) 441
1. Umfassende Datenbanken als Entscheidungshilfe (ex ante) 442
2. Unterstützung in der Sachverhaltsaufklärung und Beweiswürdigung 444
a) Termine und Fristen 444
b) Visualisierung und Dokumentenmanagement 445
c) Glaubhaftigkeit von Aussagen bzw. Glaubwürdigkeit von Zeugen oder Angeklagten 445
3. Kontrollsysteme (ex post) 447
4. Möglichkeiten speziell im Zivilprozess (Ausblick) 448
a) Automatisierte gerichtliche Prüfung von Verträgen des täglichen Bedarfs 449
b) Automatisch generierte „Vor-Urteile“ 449
VI. Fazit des dritten Teils (D) 452
1. Algorithmen versus Denkfehler? – Technische Unterstützung als Chance für rationalere Entscheidungen 452
2. Ergänzungen der juristischen Ausbildung 454
3. Ausblick 454
E. Gesamtfazit 457
I. Schluss und Ausblick 457
II. „Entscheidungs-Automatisierungs-Dilemma“ 459
III. Zusammenfassung der Ergebnisse 460
Literaturverzeichnis 469
Sachwortverzeichnis 531