Justiz und Algorithmen
BOOK
Cite BOOK
Style
Format
Justiz und Algorithmen
Über die Schwächen menschlicher Entscheidungsfindung und die Möglichkeiten neuer Technologien in der Rechtsprechung
Internetrecht und Digitale Gesellschaft, Vol. 25
(2021)
Additional Information
Book Details
Pricing
About The Author
David Nink studierte von 2009 bis 2013 Rechtswissenschaften an der Johannes Gutenberg-Universität Mainz. Im Anschluss an das zweite Staatsexamen 2015 war er als Forschungsreferent und Koordinator des Programmbereichs Digitalisierung am Deutschen Forschungsinstitut für öffentliche Verwaltung in Speyer tätig, wo er insbesondere zum Datenschutzrecht sowie zu Rechtsfragen der Digitalisierung und der Regulierung neuer Technologien forschte. Im Frühjahr 2020 wurde er mit einer von Prof. Dr. Mario Martini betreuten Arbeit promoviert. David Nink ist Rechtsanwalt für IT- und Datenschutzrecht bei einer Wirtschaftskanzlei in Frankfurt.Abstract
Richterliche Rechtsfindung ist fehleranfällig. Was unspektakulär klingt, belegen neuere empirische Daten eindrucksvoll. Durch Rationalitätsschwächen kann es zu Verzerrungen und jedenfalls dazu kommen, dass sachfremde Aspekte einfließen. Können Algorithmen und »Künstliche Intelligenz« dazu beitragen, dass gerichtliche Entscheidungen »rationaler« werden? Überlegungen zur Automatisierung im Recht sind nicht neu, müssen aber aufgrund neuer technischer Möglichkeiten und Erkenntnisse zur Entscheidungsfindung neu gedacht werden. Eine vollständige Automatisierung scheidet allerdings aus. Einzelfallgerechtigkeit zu gewährleisten, ist in vollautomatisierten Verfahren nicht möglich. Neben technischen sind es zuvorderst verfassungsrechtliche Hürden, die einem solchen Vorhaben Grenzen setzten. Ein Verbot algorithmenbasierter Unterstützungssysteme ist dem Grundgesetz indes nicht zu entnehmen. Sofern es gelingt, den Systemen rechtsstaatliche Funktionsweisen einzuhauchen, können neue Technologien die richterliche Rechtsfindung sinnvoll unterstützen.»Judiciary and Algorithms. On the Weaknesses of Human Decision-Making and the Possibilities of New Technologies in Jurisprudence«Judicial decision-making is not free of errors. What sounds unspectacular is impressively demonstrated by new empirical data. The central question of the study is: Can algorithms and »artificial intelligence« - in accordance with the German constitution - contribute to making court decisions more »rational«? Although considerations of automation in law are not new, they need to be rethought due to new technical possibilities and a better understanding of human decision-making.
Table of Contents
Section Title | Page | Action | Price |
---|---|---|---|
Vorwort | 5 | ||
Inhaltsverzeichnis | 7 | ||
A. Einleitung | 19 | ||
I. Einführung | 19 | ||
II. Ziel der Arbeit | 24 | ||
III. Gang der Darstellung | 26 | ||
B. Erster Teil: Status quo richterlicher Entscheidungsfindung | 28 | ||
I. Problemaufriss – Menschliche Entscheidungen und die Fehleranfälligkeit juristischer Entscheidungsträger | 28 | ||
1. Zustandekommen menschlicher Entscheidungen – Struktur des Entscheidungsprozesses | 29 | ||
a) Phasenmodell | 30 | ||
b) Entscheidung als (objektive) Informationsverarbeitung? | 31 | ||
c) Flexible Rationalität? | 32 | ||
d) Unvollständige Informationslage | 32 | ||
e) Die Diskussion um den freien Willen | 33 | ||
f) Heuristiken | 35 | ||
g) Erkenntnistheorie und Fallibilismus | 37 | ||
2. Die Subsumtion als Bestandteil juristischer Entscheidungsfindung | 37 | ||
3. Gefühle, Emotionen und das Recht | 40 | ||
a) Begriffe und Hintergrund | 40 | ||
b) Wie sich Emotionen auf Entscheidungen auswirken | 41 | ||
aa) Befund | 41 | ||
bb) Phänomenologie und normative Einhegung | 42 | ||
cc) Grenzen | 44 | ||
4. Denkfehler, Rationalitätsschwächen und weitere rechtsfremde Einflüsse – Beispiele und Studien (Auswahl) | 45 | ||
a) Einführung | 45 | ||
b) Implizite Assoziationen | 47 | ||
c) Priming und Framing | 50 | ||
d) Ankereffekt | 53 | ||
aa) Einführung | 53 | ||
bb) Empirischer Nachweis und konkrete Auswirkungen | 54 | ||
cc) Ausblick | 58 | ||
e) „Peak-End-Regel“-Verzerrung | 59 | ||
aa) Einführung | 59 | ||
bb) Empirischer Nachweis und konkrete Auswirkungen | 60 | ||
cc) Einordnung | 61 | ||
f) Rückschaufehler | 61 | ||
g) Confirmation Bias (Bestätigungsfehler) | 63 | ||
aa) Einführung | 63 | ||
bb) Auswirkungen und Folgen | 65 | ||
h) Einfluss außergerichtlicher Meinungen, Ansichten und Ereignisse | 66 | ||
aa) Einfluss der öffentlichen Meinung – Beispiel BVerfG | 66 | ||
(1) Empirische Nachweise | 67 | ||
(2) Aussagekraft und Erklärungsansätze | 68 | ||
(3) Parteinähe der Bundesverfassungsrichter | 70 | ||
(4) Exkurs: Vorhersage obergerichtlicher Entscheidungen | 71 | ||
bb) Einfluss der Medien | 71 | ||
cc) Einfluss von Sportereignissen auf gerichtliche Entscheidungen | 72 | ||
dd) Schlafmangel und der Einfluss der Zeitumstellung | 73 | ||
ee) Geburtstag des Angeklagten | 73 | ||
ff) Hungrige Richter, härtere Urteile? | 74 | ||
(1) Empirischer Nachweis – Bewährungsentscheidungen israelischer Richter | 74 | ||
(2) Kritik: Begrenzte Aussagekraft der Studie | 75 | ||
(3) Resümee | 75 | ||
II. Rechtsprechung und Diskriminierungspotenzial | 76 | ||
1. Normative Anknüpfungspunkte möglicher Diskriminierungen | 77 | ||
2. (Selbst-)Verständnis der richterlichen Tätigkeit | 77 | ||
3. Schwächen in der „Quantität der Sachverhaltsanalyse“? | 79 | ||
4. Rationalität in der Beweiswürdigung | 80 | ||
a) Allgemeine Problemstellung | 80 | ||
b) Problem inkorrekter Zeugenaussagen | 82 | ||
5. „Verborgene“ Strafzumessung als Diskriminierungsrisiko? | 83 | ||
a) Einführung | 83 | ||
b) Unterschiedliche Strafzumessungspraxis je nach Region bzw. Gerichtsbezirk | 84 | ||
c) Beispiel Ungleichbehandlung aufgrund der Ethnie | 86 | ||
d) Beispiel Ungleichbehandlung aufgrund des Geschlechts | 89 | ||
6. Empirie strafrechtlicher Fehlurteile in Deutschland? | 91 | ||
III. Vorgaben an die richterliche Rechtsfindung | 94 | ||
1. Rechtstheoretischer Unterbau | 95 | ||
a) Rechtspositivismus und Prinzipientheorie | 95 | ||
b) Eingeschränkte praktische Bedeutung | 98 | ||
c) Konsenstheoretische Ansätze | 100 | ||
d) Subjektiv richtige Entscheidungen | 101 | ||
2. Die richterliche Unabhängigkeit als Basis (Überblick) | 102 | ||
a) Sachliche Unabhängigkeit | 102 | ||
b) Persönliche Unabhängigkeit | 103 | ||
c) Innere Unabhängigkeit? | 103 | ||
aa) Herleitung | 104 | ||
bb) Gerechtigkeit und richterliche Ethik? | 105 | ||
(1) Hintergrund | 106 | ||
(2) Konkretisierung im DRiG | 106 | ||
3. Was das Recht vom Richter fordert | 109 | ||
a) Die Gesetzesbindung als Legitimierung und „Disziplinierung“ | 109 | ||
aa) Grundsätze | 109 | ||
bb) Sonderfall „Richterrecht“ | 110 | ||
(1) Verfassungsrechtliche Zulässigkeit | 110 | ||
(2) Erscheinungsformen | 111 | ||
(3) Pflicht zur Rechtsfortbildung? | 112 | ||
b) Konkrete Vorgaben | 113 | ||
aa) Kein Verstoß gegen Prozessrecht | 113 | ||
bb) Im Rahmen des Prozessrechts: Entscheidung, die materiell-rechtlich der objektiven Rechtslage entspricht | 114 | ||
cc) Auslegung | 115 | ||
(1) Auslegungsmethoden | 115 | ||
(2) Diskriminierungsverbot und Gleichheitsgrundsatz | 118 | ||
(a) Spezielles Diskriminierungsverbot – keine Anknüpfung an irrelevante Merkmale | 118 | ||
(b) Rechtsanwendungsgleichheit | 118 | ||
(3) Rechtssicherheit | 120 | ||
dd) Gegebenenfalls: Vorlagepflichten | 121 | ||
ee) Nachvollziehbare Begründung | 122 | ||
(1) Normativer Hintergrund | 122 | ||
(2) Inhaltliche Anforderungen: Widerspruchsfreiheit, Vollständigkeit, Kohärenz | 125 | ||
(3) Aufbau | 125 | ||
(a) Zivilprozessuales Urteil | 126 | ||
(b) Strafrechtliches Urteil | 126 | ||
c) Kodifizierte äußere Grenzen | 127 | ||
aa) Rechtsbeugung | 127 | ||
bb) Ausschluss und Ablehnung | 128 | ||
4. Zwischenfazit | 129 | ||
IV. Strategien gegen Rationalitätsschwächen? | 130 | ||
1. Betroffene Entscheidungsformen | 130 | ||
2. Zielbestimmung | 130 | ||
3. Erforschung der juristischen Entscheidungsfindung in Deutschland ausbauen | 131 | ||
4. Abhilfe | 131 | ||
a) „Debiasing“ | 131 | ||
b) Juristische Aus- und Weiterbildung, Organisation und Ausgestaltung richterlicher Tätigkeit | 133 | ||
V. Fazit des ersten Teils (B) | 134 | ||
1. Zwischenergebnis | 134 | ||
2. Ausblick: Rationalisierung und Automatisierung als Lösung? | 138 | ||
C. Zweiter Teil: Neue Technologien in der richterlichen Entscheidungsfindung – Zu den Grenzen eines „Smart Judging“ | 139 | ||
I. Einführung | 139 | ||
1. Vorabüberlegungen | 139 | ||
2. Begriffe, Entwicklungen, Auswirkungen | 143 | ||
a) Begriffe und Einordnung in den juristischen Kontext | 143 | ||
aa) Algorithmus | 143 | ||
bb) Expertensystem | 144 | ||
cc) Big Data | 145 | ||
dd) Künstliche Intelligenz | 146 | ||
(1) Überblick | 146 | ||
(2) Maschinelles Lernen | 147 | ||
(3) Künstliche neuronale Netze | 149 | ||
(4) Statische und dynamische Systeme | 149 | ||
ee) Neue Technologien und Automatisierung | 150 | ||
ff) Entscheidungsunterstützungssystem | 151 | ||
gg) Autonome Systeme | 151 | ||
b) Bisherige Automatisierungsbeispiele und aktuelle Entwicklungen | 152 | ||
aa) Beispiele im hoheitlichen Einsatz (allgemein) | 153 | ||
(1) Besteuerungsverfahren | 153 | ||
(2) Allgemeines und Sozialverwaltungsverfahrensrecht | 155 | ||
(3) Zivilgerichtliches Mahnverfahren | 156 | ||
(4) Ordnungswidrigkeitenrecht | 157 | ||
bb) „Legal Tech“ und Beispiele aus der Rechtsberatung | 158 | ||
cc) Aktuelle Entwicklungen im Kernbereich der Justiz | 161 | ||
(1) Elektronische Kommunikation und Aktenführung | 162 | ||
(2) Strukturierung und Beweisführung | 163 | ||
(3) Zwischenfazit und Ausblick | 164 | ||
c) (Mögliche) Auswirkungen der Digitalisierung auf die juristische Arbeit insgesamt | 165 | ||
II. Zu den Diskriminierungsrisiken durch algorithmenbasierte Systeme | 167 | ||
1. Diskriminierungspotenzial | 167 | ||
2. Korrelation und Kausalität | 168 | ||
3. Reduzierung auf die Vergangenheit | 170 | ||
4. Algorithmen als Projektion der Werteinstellungen ihrer Schöpfer | 172 | ||
a) Machine Bias und Verfestigung | 172 | ||
b) „Rationalisierung der Rationalitätsschwächen“ | 173 | ||
c) Gefahr unzulässiger Rückschlüsse | 174 | ||
5. Zwischenfazit | 176 | ||
III. Technische Hürden einer automatisierten Rechtsfindung | 177 | ||
1. Vorab: Keine Vollautomation gerichtlicher Verfahren einschließlich Sachverhaltsermittlung | 177 | ||
a) Sachverhaltsaufklärung | 177 | ||
b) Informationslücken | 178 | ||
c) „Harte“ und „weiche“ Fakten | 179 | ||
d) Ausblick | 180 | ||
2. Ermessen | 180 | ||
a) Ausgangslage: Grundsätzliches zum Ermessensbegriff | 181 | ||
aa) Ermessen im Verwaltungsverfahren | 181 | ||
bb) Ermessen in der Rechtsprechung | 182 | ||
(1) „Verfahrensermessen“ | 183 | ||
(2) Rechtsfolgenauswahl – das materielle Entscheidungsermessen des Richters | 183 | ||
b) Grenzen der Automation im Verwaltungsrecht – § 35a VwVfG und Parallelnormen | 185 | ||
c) Über die mögliche Parallele zwischen Verwaltungsverfahren und Gerichtsverfahren | 187 | ||
aa) Automatisierung durch Verwaltungsvorschriften? | 188 | ||
bb) Automatisierung und der Untersuchungsgrundsatz im Verwaltungsverfahren | 190 | ||
cc) Begrenzte Vergleichbarkeit von Verwaltungsverfahren und richterlichen Entscheidungen | 191 | ||
(1) Schematisierung in der Rechtsprechung? | 191 | ||
(2) Der „Regelfall“ vor Gericht? | 192 | ||
d) Zwischenergebnis | 196 | ||
3. Einzelfälle und Ausnahmen – Individualgerechtigkeit | 196 | ||
a) Automatisierung und Einzelfallgerechtigkeit – ein Widerspruch? | 197 | ||
b) Menschliche versus maschinelle Entscheidung | 199 | ||
aa) Chancen – Was Technik kann | 199 | ||
bb) Risiken – Was Technik nicht kann | 201 | ||
(1) Grundsätzliches | 201 | ||
(2) Statische Entscheidungsfindung – rein regelbasierte Systeme | 202 | ||
(3) Dynamische Entscheidungsfindung – lernende Systeme und Künstliche Intelligenz | 204 | ||
cc) Maßstab der Zielbestimmung – Vorgaben an die gerichtliche Entscheidungsfindung | 205 | ||
c) Zwischenergebnis | 207 | ||
4. Automatisierung und Sprache | 208 | ||
a) Zum Sprachverständnis | 209 | ||
b) Natürliche und formale Sprache | 210 | ||
aa) Einführung – Formalisierung der Rechtssprache? | 210 | ||
bb) Unbestimmte Rechtsbegriffe und Generalklauseln | 213 | ||
cc) Herangehensweise und Kontrolle | 214 | ||
c) Möglichkeiten der Fuzzy-Logik | 217 | ||
d) Semantik und Syntax – rechtstheoretische Überlegungen | 217 | ||
e) Widerspruchsfreiheit | 221 | ||
5. Wertungen und Filter | 222 | ||
a) Bewertungen als Teil der Informationsverarbeitung – Wertung und Realität | 222 | ||
b) Wertungen und Filter als Teil des Rechtsfindungsprozesses | 224 | ||
c) Wertungen bis ins Detail? – Strukturelle Grenzen | 225 | ||
6. Auslegung | 226 | ||
7. Die Begründung juristischer Entscheidungen | 228 | ||
8. Automatisiertes Richterrecht? | 229 | ||
9. Judiz | 231 | ||
a) Empathie | 231 | ||
aa) Grundlagen | 231 | ||
bb) Maschinen und Empathie? | 232 | ||
cc) Empathie in der Rechtsfindung | 232 | ||
dd) Empathie als unverzichtbarer Bestandteil? | 235 | ||
b) Kreativität | 235 | ||
c) Ethik der Algorithmen? | 237 | ||
d) Das Judiz im engeren Sinne, Intuition und emotionale Kompetenz | 238 | ||
10. Zwischenfazit | 239 | ||
a) Wo Maschinen im Vorteil sind | 239 | ||
b) Maschinentheoretische Hürde | 239 | ||
c) Fehler maschineller Entscheidungsfindung | 241 | ||
d) Zusammenfassung und Ausblick | 242 | ||
IV. Unionsrechtliche Vorgaben zur Automatisierung gerichtlicher Entscheidungen (Überblick) | 245 | ||
1. Datenschutzrechtliche Vorgaben der Datenschutz-Grundverordnung | 246 | ||
a) Anwendungsbereich der DSGVO in gerichtlichen Verfahren | 246 | ||
aa) Grundsatz | 246 | ||
bb) Sonderfall Strafprozess – Anwendungsbereich der RL (EU) 2018/680 („JI-RL“) | 247 | ||
b) Rechtsgrundlage der Datenverarbeitung als solcher nach der DSGVO | 249 | ||
c) Automatisierte Entscheidungen und Profiling (Art. 22 DSGVO) | 250 | ||
aa) Grundsatz – Verbot bestimmter vollautomatisierter Entscheidungen (Art. 22 Abs. 1) | 250 | ||
bb) Ausnahmen (Art. 22 Abs. 2) | 251 | ||
(1) Ausdrückliche freiwillige Einwilligung (Abs. 2 lit. c) | 252 | ||
(2) Öffnungsklausel (Abs. 2 lit. b) | 253 | ||
cc) Weitere Vorgaben der DSGVO (Auswahl) | 255 | ||
(1) Informationen und Auskunft | 255 | ||
(2) Algorithmische Ethik am Beispiel des Rechts auf Erläuterung | 256 | ||
(3) Datenminimierung | 257 | ||
d) Zwischenergebnis | 258 | ||
2. Datenschutzrechtliche Vorgaben der JI-RL für das Strafverfahren | 259 | ||
3. Zwischenfazit | 260 | ||
V. Verfassungsrechtliche Direktiven | 260 | ||
1. Art. 92 Hs. 1 GG und die Frage, ob eine Maschine „Richter“ sein kann | 261 | ||
a) Die Anknüpfungspunkte in Art. 92 Hs. 1 GG | 262 | ||
aa) Der Begriff der „rechtsprechenden Gewalt“ | 262 | ||
(1) Allgemeines | 262 | ||
(2) Rechtsprechungsbegriff des BVerfG | 263 | ||
(3) Zwischenfazit: Wer ist „Richter“? | 265 | ||
bb) Der Richter und die Anvertrauens-Formel in Art. 92 Hs. 1 GG | 265 | ||
b) Wortlaut | 266 | ||
c) Historie | 267 | ||
d) Systematik | 270 | ||
aa) Der Richterbegriff im Verfassungsgefüge | 270 | ||
(1) Richterernennung | 270 | ||
(2) Unabhängigkeit | 270 | ||
bb) Ergebnisrationalität und Vorgangswert | 271 | ||
e) Telos | 272 | ||
aa) Unterbau – Gewaltenteilung und Rechtsprechungsmonopol | 272 | ||
(1) Recht auf eine richterliche Tatsacheninstanz | 273 | ||
(2) Gefahr der „Privatisierung“ durch IT-Systeme privatwirtschaftlicher Unternehmen | 274 | ||
(3) Zwischenresümee | 276 | ||
bb) Sinn und Zweck – Kompetenzen | 276 | ||
(1) Der rechtsgelehrte Richter | 276 | ||
(2) Rechtsgelehrte informationstechnische Systeme? | 280 | ||
cc) Strukturelle Grenzen der Automatisierung – hypothetisch: Maschine erreicht Kompetenz des menschlichen Richters | 281 | ||
f) Konkretisierungen im DRiG | 282 | ||
g) Landesrecht | 284 | ||
aa) Terminologie in den Landesverfassungen | 284 | ||
bb) Einfachgesetzliches Landesrecht | 286 | ||
h) Richter und Ewigkeitsgarantie | 287 | ||
i) Zwischenergebnis | 287 | ||
2. (Teil-)Automatisierung und richterliche Unabhängigkeit, Art. 97 Abs. 1 GG | 288 | ||
a) Problemstellung – Algorithmen und die sachliche Unabhängigkeit | 288 | ||
b) Beispiel Metadaten in der Justiz | 289 | ||
c) Rückschluss auf die Grenzen eines IT-Einsatzes | 291 | ||
aa) Parallelen zur Dienstaufsicht | 291 | ||
bb) Überlegungen zur praktischen Ausgestaltung | 293 | ||
cc) Grenzen des Einsatzes entscheidungsunterstützender Systeme | 295 | ||
(1) „Automation Bias“ und das Risiko der faktischen Bindungswirkung | 295 | ||
(2) Schlussfolgerungen | 296 | ||
3. Gesetzlicher Richter, Art. 101 Abs. 1 S. 2 GG | 298 | ||
a) Begriff und Grundsätze | 298 | ||
b) Exkurs: Gesetzlicher Richter und Privatautonomie | 300 | ||
c) Bedeutung des Art. 101 Abs. 1 S. 2 GG für den Algorithmeneinsatz in der Justiz | 301 | ||
4. Anspruch auf rechtliches Gehör (Art. 103 Abs. 1 GG) | 302 | ||
a) Inhalt und Umfang des Anspruchs | 303 | ||
b) Bedeutung und Rückschluss auf Algorithmeneinsatz in der Justiz | 304 | ||
aa) Verbot der vollständigen (Verfahrens-)Automatisierung | 304 | ||
bb) Kein Verbot entscheidungsunterstützender Algorithmen | 305 | ||
(1) Anleihen in den Prozessordnungen | 306 | ||
(2) Rechtliches Gehör und das Problem drohender „Übernahmeautomatismen“ | 307 | ||
5. Grundrecht auf effektiven Rechtsschutz (Art. 19 Abs. 4 GG) | 308 | ||
a) Rechtscharakter und grundsätzliche Bedeutung des Art. 19 Abs. 4 GG | 308 | ||
b) Technikeinsatz als Beschleunigungsfaktor gerichtlicher Entscheidungen | 309 | ||
6. Justizgewährungsanspruch (aus Rechtsstaatsprinzip) | 310 | ||
7. Das Rechtsstaatsprinzip (Art. 20 Abs. 3 GG) und seine Implikationen auf den justiziellen Algorithmeneinsatz | 311 | ||
a) Gesetzesbindung | 311 | ||
b) Gewaltenteilung | 313 | ||
c) Faires Verfahren – Art. 6 EMRK | 314 | ||
8. Demokratieprinzip und Volkssouveränität – die demokratische Legitimation gerichtlicher Entscheidungen | 317 | ||
a) Grundsätze | 317 | ||
b) Demokratische Legitimation der Judikative | 318 | ||
c) Demokratische Legitimation beim Einsatz automatischer Systeme in der Justiz | 321 | ||
aa) Problemlage | 321 | ||
bb) Folgerungen | 323 | ||
(1) Funktionell-institutionelle sowie organisatorisch-personelle Legitimation | 323 | ||
(2) Sachlich-inhaltliche Legitimation | 324 | ||
(a) Unterscheidung nach der Art der denkbaren Systeme | 325 | ||
(aa) Regelbasierte Entscheidungssysteme | 325 | ||
(bb) Dynamische Entscheidungssysteme | 325 | ||
(cc) Parallele zum Verwaltungsverfahren | 327 | ||
(b) Praktische Umsetzung? | 328 | ||
cc) Demokratische Legitimation durch (Teil-)Automatisierung? | 329 | ||
9. Transparenz und Akzeptanz | 330 | ||
a) Transparenz | 331 | ||
aa) Begriff und Inhalt | 331 | ||
bb) Organisatorische Transparenz – Zurechnung | 332 | ||
cc) Inhaltliche Transparenz – Nachvollziehbarkeit | 334 | ||
(1) Grundsatz | 334 | ||
(2) Unterscheidung nach Art der Systeme | 335 | ||
dd) Vergleich zu menschlichen Entscheidungen | 337 | ||
ee) Lösungsansatz – die Begründung als zentrale Säule der Transparenz | 338 | ||
(1) Information über den Einsatz eines Assistenzsystems (Ob) | 338 | ||
(2) Informationen zur Funktionsweise (Wie) | 339 | ||
(3) Rechtliche und technische Nachvollziehbarkeit | 340 | ||
b) Akzeptanz | 343 | ||
aa) Grundsätzliches | 343 | ||
bb) Bezugspunkt der Akzeptanz | 343 | ||
cc) Akzeptanz durch Transparenz | 345 | ||
dd) Unterscheidung nach Verfahren | 346 | ||
10. Die Menschenwürde und das Menschenbild des Grundgesetzes | 346 | ||
a) Begriff und Inhalt | 347 | ||
b) Die Menschenwürde als Hindernis einer vollautomatisierten Justiz | 348 | ||
aa) Grenze | 348 | ||
bb) Keine Reduktion des Menschen auf Zahlenlogik | 349 | ||
cc) Mögliche Kontraindikation | 349 | ||
c) Ausblick – keine Rationalisierung um jeden Preis | 351 | ||
11. Recht auf informationelle Selbstbestimmung – Achtung des Datenschutzes bei der Entwicklung und Nutzung algorithmenbasierter Unterstützungssysteme | 353 | ||
12. Zwischenfazit | 354 | ||
VI. Fazit des zweiten Teils (C) | 355 | ||
D. Dritter Teil: Algorithmenbasierte Entscheidungsunterstützung in der Strafrechtspflege – Möglichkeiten und Ausblick | 359 | ||
I. Einführung | 359 | ||
1. Vorabüberlegungen | 359 | ||
2. Motivation | 360 | ||
II. Zu den Einsatzmöglichkeiten von Entscheidungsunterstützungssystemen (Überblick) | 363 | ||
1. Notwendigkeit der Kategorisierung der Einsatzmöglichkeiten | 363 | ||
a) Rechtsgebiet | 363 | ||
b) Instanz bzw. „Endgültigkeit“ | 364 | ||
c) Art und Wesen der Entscheidung sowie Verfahrensstadien | 364 | ||
d) Entscheidungsteile und Gesamtentscheidung | 365 | ||
2. Kontrolle justiziell eingesetzter Entscheidungsunterstützungssysteme | 365 | ||
a) Einfachgesetzlich verankerte Grundsätze und Formalia – Lex lata | 365 | ||
aa) Mündlichkeitsgrundsatz | 366 | ||
bb) Unterschriften der Berufsrichter | 368 | ||
b) Bewertung und Nachjustierung | 368 | ||
c) IT-Sicherheit | 369 | ||
d) Lex ferenda und Gestaltungsvorschläge | 370 | ||
aa) Mut zum Normativen | 370 | ||
bb) Plädoyer für eine frühzeitige Grenzziehung – Garantie der menschlichen Entscheidung | 372 | ||
cc) Weitere allgemeine Vorschläge und Vorgaben | 373 | ||
III. Entscheidungsunterstützende Systeme im Strafverfahren nach US-amerikanischem Vorbild? | 375 | ||
1. Modell einer Risikobewertung – der COMPAS-Algorithmus | 376 | ||
a) Konkreter Einsatz und Funktionsweise | 376 | ||
b) Zulässigkeit (nach US-Recht) | 378 | ||
c) Fragliche Wirksamkeit | 379 | ||
d) Diskriminierungsrisiken und Unfairness | 381 | ||
aa) Ergebnisse einer umfassenden Datenauswertung | 381 | ||
bb) Relativierung der Vorwürfe – verschiedene Fairnessmaßstäbe | 382 | ||
e) Mangelnde Transparenz | 385 | ||
2. Der US-amerikanische Strafprozess und seine wesentlichen Unterschiede zum deutschen Recht | 386 | ||
3. Zwischenergebnis und Ausblick | 387 | ||
IV. Synthese – Ausgestaltung entscheidungsunterstützender Systeme im Strafverfahren (Überblick) | 388 | ||
1. Vorab: Risikoprognosen auch im deutschen Strafrecht | 388 | ||
2. Technisch-praktische Herangehensweise (Überblick) | 390 | ||
a) Notwendigkeit interdisziplinärer Zusammenarbeit | 390 | ||
b) Datenbasis | 390 | ||
c) Statische regelbasierte und dynamische datenbasierte Systeme | 392 | ||
d) Regression und Klassifikation | 394 | ||
3. In Betracht kommende Anwendungsszenarien | 396 | ||
a) Untersuchungshaft | 397 | ||
aa) Gesetzliche Vorgaben | 397 | ||
bb) Kein normativer Ausschluss algorithmenbasierter Unterstützung, insbesondere für die Prüfung der Haftgründe | 397 | ||
cc) Technische Weichenstellungen und erste positive Ergebnisse | 398 | ||
dd) Grenze: qualitative Wertungsfragen und Verhältnismäßigkeit | 401 | ||
b) Strafzumessung | 402 | ||
aa) Normative Vorgaben und Rechtsprechungspraxis | 402 | ||
bb) Rationalisierung durch Strafzumessungstabellen? | 404 | ||
cc) Algorithmenbasierte Entscheidungsunterstützung | 406 | ||
(1) Stand der Strafzumessungsdogmatik als Hürde | 407 | ||
(2) Konzeption | 409 | ||
(a) Skalen und Fuzzy-Logik – Entscheidungsassistenz bei Eigentums- und Vermögensdelikten | 409 | ||
(b) Datenbasierte Systeme – Ausblick und „Problem“ der fehlenden präjudiziellen Wirkung | 412 | ||
(3) Zwischenergebnis und Praxisbezug der Überlegungen | 414 | ||
c) Strafaussetzung zur Bewährung | 416 | ||
aa) Die normativen Vorgaben in § 56 und §§ 57, 57a StGB | 416 | ||
(1) Strafaussetzung zur Bewährung – die Sozialprognose nach § 56 StGB | 416 | ||
(2) Aussetzung eines Strafrests zur Bewährung (§§ 57, 57a StGB) | 417 | ||
bb) Raum und Grenzen für eine algorithmische Assistenz | 419 | ||
d) Ausweitung des offenen Vollzugs | 421 | ||
4. Rechtskonformität der skizzierten Anwendungsbeispiele (Standortbestimmung) | 422 | ||
a) Entscheidungsunterstützung und richterliche Unabhängigkeit im Strafprozess | 422 | ||
aa) Grenzen und Zielrichtung | 422 | ||
bb) Maßnahmen zur rechtskonformen Ausgestaltung – gegen eine faktische Prädeterminierung und den Automation Bias | 424 | ||
cc) Freie Beweiswürdigung im Strafprozess | 427 | ||
b) Verfassungsrechtlich-organisatorische Vorgaben für Freiheitsentziehungen (Art. 104 GG) | 428 | ||
c) Überlegungen zur Gesetzesbindung | 429 | ||
aa) Datenbasis und Entscheidungsgrundlage | 429 | ||
(1) Maßstab der Gesetzesbindung entscheidungsunterstützender Systeme | 429 | ||
(2) Fortschreiben der Rationalitätsschwächen | 431 | ||
(3) Musterfälle | 431 | ||
bb) Kombination aus induktiven und deduktiven Verfahren | 433 | ||
cc) Verfahrensrechtliche Begründungspflicht am Beispiel der Strafzumessung | 434 | ||
dd) Besonders geschützte Merkmale und Diskriminierungsschutz | 435 | ||
d) Zieldefinition und Fairnessmaßstab | 437 | ||
5. Zwischenergebnis | 439 | ||
V. Weitere Vorschläge zur Entscheidungsunterstützung – Anwendungsszenarien (Ausblick) | 441 | ||
1. Umfassende Datenbanken als Entscheidungshilfe (ex ante) | 442 | ||
2. Unterstützung in der Sachverhaltsaufklärung und Beweiswürdigung | 444 | ||
a) Termine und Fristen | 444 | ||
b) Visualisierung und Dokumentenmanagement | 445 | ||
c) Glaubhaftigkeit von Aussagen bzw. Glaubwürdigkeit von Zeugen oder Angeklagten | 445 | ||
3. Kontrollsysteme (ex post) | 447 | ||
4. Möglichkeiten speziell im Zivilprozess (Ausblick) | 448 | ||
a) Automatisierte gerichtliche Prüfung von Verträgen des täglichen Bedarfs | 449 | ||
b) Automatisch generierte „Vor-Urteile“ | 449 | ||
VI. Fazit des dritten Teils (D) | 452 | ||
1. Algorithmen versus Denkfehler? – Technische Unterstützung als Chance für rationalere Entscheidungen | 452 | ||
2. Ergänzungen der juristischen Ausbildung | 454 | ||
3. Ausblick | 454 | ||
E. Gesamtfazit | 457 | ||
I. Schluss und Ausblick | 457 | ||
II. „Entscheidungs-Automatisierungs-Dilemma“ | 459 | ||
III. Zusammenfassung der Ergebnisse | 460 | ||
Literaturverzeichnis | 469 | ||
Sachwortverzeichnis | 531 |