Menu Expand

Cite BOOK

Style

Köhn, K. (2024). Robot-Recruiting. Datenschutz- und antidiskriminierungsrechtliche Herausforderungen beim Einsatz von KI-Systemen im Einstellungsverfahren. Duncker & Humblot. https://doi.org/10.3790/978-3-428-58983-8
Köhn, Kay Alexander. Robot-Recruiting: Datenschutz- und antidiskriminierungsrechtliche Herausforderungen beim Einsatz von KI-Systemen im Einstellungsverfahren. Duncker & Humblot, 2024. Book. https://doi.org/10.3790/978-3-428-58983-8
Köhn, K (2024): Robot-Recruiting: Datenschutz- und antidiskriminierungsrechtliche Herausforderungen beim Einsatz von KI-Systemen im Einstellungsverfahren, Duncker & Humblot, [online] https://doi.org/10.3790/978-3-428-58983-8

Format

Robot-Recruiting

Datenschutz- und antidiskriminierungsrechtliche Herausforderungen beim Einsatz von KI-Systemen im Einstellungsverfahren

Köhn, Kay Alexander

Internetrecht und Digitale Gesellschaft, Vol. 55

(2024)

Additional Information

Book Details

Pricing

About The Author

Kay Alexander Köhn studierte Rechtswissenschaften an der Georg-August-Universität Göttingen und der Özyeğin Universität in Istanbul. Sein Referendariat absolvierte er am Oberlandesgericht Düsseldorf. Seit einigen Jahren ist er als Rechtsanwalt bei einer renommierten Wirtschaftskanzlei in Köln tätig. Er wurde im Frühjahr 2023 an der Rheinischen Friedrich-Wilhelms-Universität Bonn promoviert.

Abstract

KI-Systeme, insbesondere zur Sprach- und Videoanalyse, finden zunehmend Anwendung bei der Personalauswahl. Ziel ist es, geeignete Bewerber zu identifizieren und das Einstellungsverfahren zu optimieren. In der Untersuchung werden Datenschutz- und Antidiskriminierungsfragen beleuchtet. Der Autor analysiert, inwieweit Einblicke in die Persönlichkeit und Emotionen der Bewerber zulässig sind. Zudem erörtert er, unter welchen Bedingungen automatisierte Entscheidungen im Einstellungsverfahren legitim sind und inwieweit KI-Systeme transparent gemacht werden müssen. Die potenzielle Diskriminierung durch KI-Systeme wird behandelt und die Abdeckung solcher Fälle durch das AGG analysiert. Dabei werden auch Fragen des Verschuldens und der Verschuldenszurechnung berücksichtigt. Ein Ausblick auf die Auswirkungen der geplanten KI-Verordnung auf den Einsatz solcher KI-Systeme rundet die Untersuchung ab. Der Autor gelangt zu dem Schluss, dass KI-Systeme das Einstellungsverfahren verbessern können.»Robot-Recruiting. Challenges under Data Protection and Anti-Discrimination Law in the use of AI Systems in the Recruitment Process«: The thesis addresses the use of AI systems, specifically for speech and video analysis, in recruiting. Privacy and anti-discrimination issues are highlighted. The first part examines the extent to which insights into the personality and emotions of applicants are possible and automated decisions are legally permissible in the recruitment process within the scope of the GDPR. The second part addresses potential discrimination by AI systems and analyzes the coverage of such cases by the GETA.

Table of Contents

Section Title Page Action Price
Widmungr 5
Vorwort 7
Inhaltsverzeichnis 9
1. Kapitel: Einleitung 21
A. War Of Talents 21
B. Software-Einsatz im Einstellungsverfahren 22
C. Phasen des Einstellungsverfahrens 23
D. Arten von Softwaresystemen 24
E. Verbreitung von KI-Systemen 26
F. Grundlegende Kritikpunkte 27
G. Untersuchungsgegenstand der Arbeit 28
2. Kapitel : Technische Grundlagen 31
A. Verschiedene Methoden des maschinellen Lernens 31
B. Training der Modelle durch nMethode des überwachten Lernens 32
C. Evaluation und Implementierung 36
D. Anwendung des KI-Systems 36
3. Kapitel: Datenschutzrechtliche Konformität 39
A. Grundlegende Vorgaben der DS-GVO 39
I. Der Arbeitgeber als Verantwortlicher 39
II. Personenbezogene Daten 41
1. „Einfache“ personenbezogene Daten 41
2. Besondere Kategorien personenbezogener Daten 41
a) Biometrische Daten zur eindeutigen Identifizierung 42
aa) Vorliegen biometrischer Daten 42
(1) Biometrische Daten – Sprachdaten 42
(2) Biometrische Daten – Videoanalyse 44
bb) Zweckrichtung der Datenverarbeitung – Identifizierung einer natürlichen Person 45
b) Daten, aus denen sensible Aspekte hervorgehen 45
aa) Unmittelbar sensible Daten 46
bb) Mittelbar sensible Daten 47
(1) Erste Auffassung – Objektiver Empfängerhorizont 47
(2) Zweite Auffassung – Gesamtverarbeitungszusammenhang 48
(3) Dritte Auffassung – Auswertungsabsicht 48
(4) Streitentscheid 49
c) Weitere Kategorien sensibler Daten 50
d) Zwischenergebnis – besondere Kategorien personenbezogener Daten 51
III. Art und Weise der Datenverarbeitung 51
1. Profiling – Generierung von Ausgabedaten 51
2. Scoring – Europarechtskonformität und Anwendbarkeit im Beschäftigungskontext 52
a) Europarechtswidrigkeit des § 31 BDSG 53
b) Keine Anwendbarkeit des § 31 BDSG im Beschäftigungskontext 53
B. Erlaubnistatbestand für die Datenverarbeitung 55
I. Datenverarbeitung bei Bestandsmitarbeitern – Entwicklung von KI-Systemen 55
1. Untauglichkeit des § 26 Abs. 1 BDSG als Erlaubnistatbestand für die Entwicklung 57
2. Einzelfallabwägung bei Art. 6 Abs. 1 lit. f) DS-GVO 58
a) Interessenabwägung 58
b) Zweckändernde Weiterverarbeitung 60
c) Zwischenergebnis – Art. 6 Abs. 1 lit. f) DS-GVO 61
3. Einwilligung – Risiko eines Widerrufs 62
II. Datenverarbeitung bei Bewerbern – Robot-Recruiting 64
1. Datenverarbeitung auf der Grundlage von Tarifverträgen und Betriebsvereinbarungen 64
a) Betriebsvereinbarungen – Arbeitnehmerbegriff des BetrVG 65
aa) Erste Auffassung – Regelungsmacht des Betriebsrats 65
bb) Zweite Auffassung – Keine Regelungsmacht des Betriebsrats 65
cc) Streitentscheid – Keine Regelungsmacht 66
b) Tarifverträge – Geringer Regelungsspielraum 67
2. Erlaubnistatbestand des § 26 Abs. 1 BDSG – Erforderlichkeit des Einsatzes von KI-Systemen zur Sprachanalyse 68
a) (Legitime) Zwecke des Beschäftigungsverhältnisses 69
b) Erforderlichkeit der Datenverarbeitung 69
aa) Geeignetheit – Erwägungsgrund 71, S. 6 und Anforderungen an valide Eignungsdiagnostik 70
(1) Mathematisch-statistische Komponente 71
(2) Eignungsdiagnostische Komponente 73
(a) Theoretische Fundierung 74
(b) Objektivität 75
(c) Reliabilität 75
(d) Validität 76
(e) Ergebnis & Konsequenzen 76
(3) Zwischenergebnis – Geeignetheit der Datenverarbeitung 77
bb) Erforderlichkeit – Effektivere Alternativen 77
cc) Verhältnismäßigkeit im engeren Sinne/Angemessenheit 80
(1) Unzulässige Persönlichkeitsdurchleuchtung 80
(a) Erste Auffassung – Übersteigen menschlicher Erkenntnismöglichkeiten 81
(b) Zweite Auffassung – Sphärentheorie 82
(c) Zwischenergebnis – Persönlichkeitsdurchleuchtung 85
(2) Gesamtabwägung 85
(a) Fehlende Subjektqualität 85
(b) Langzeitfolgen – Beeinflussung der Persönlichkeitsentwicklung 87
(c) Langfristige Vertragsbindung 88
(d) Relevanz der Hierarchieebene 88
(e) Bedeutung des Betriebsklimas 89
(f) Stellenprofil 90
(aa) Verkehrswesentliche Eigenschaft 90
(bb) Fragerecht & Arbeitsplatzbezug 92
(g) Einbeziehung des Betriebsrats 94
(aa) § 94 Abs. 1 S. 1 BetrVG –KI-System als Personalfragebogen 94
(bb) § 94 Abs. 2, 2. Alt. BetrVG – Allgemeine Beurteilungsgrundsätze 95
(cc) § 95 Abs. 1 S. 1 BetrVG – KI-System als Auswahlrichtlinie oder Auswahlhilfe 96
(dd) Weitere Rechte des Betriebsrats 98
(h) Transparenz und Diskriminierungsfreiheit 99
dd) Zwischenergebnis – Erforderlichkeit im Sinne von § 26 Abs. 1 BDSG 99
3. Videoanalyse 100
a) Verarbeitung sensibler Daten zur Emotionserkennung 101
aa) Art. 9 Abs. 2 lit. b) DS-GVO – Erlaubnistatbestand 101
bb) § 26 Abs. 3 S. 1 BDSG – Erlaubnistatbestand 102
(1) Zwecke des Beschäftigungsverhältnisses 102
(2) Erforderlichkeit zur Ausübung von Rechten aus dem Arbeitsrecht 102
(a) Arbeitgeberseitiges Fragerecht als Recht aus dem Arbeitsrecht 102
(aa) Erste Auffassung – Kein Recht aus dem Arbeitsrecht 103
(bb) Zweite Auffassung – Recht aus dem Arbeitsrecht 103
(cc) Streitentscheid 104
(b) Erforderlichkeit – Umfang des Fragerechts 104
(aa) Geeignetheit – Forschungsstand und Ausblick 105
(bb) Erforderlichkeit – Vergleich mit Videobewerbung 106
(cc) Angemessenheit 108
cc) Zwischenergebnis – Einsatz von KI-Systemen zur Emotionserkennung 110
b) Verarbeitung sensibler Daten zur Persönlichkeitsanalyse 110
4. Erforderlichkeit der Weiterverarbeitung der Ausgabedaten – Speicherung und Abgleich mit Stellenprofil 111
5. Datenschutzrechtliche Einwilligung 112
a) Einwilligung im Beschäftigungsverhältnis 113
b) Inhaltliche Grenzen der Einwilligung – Allgemeines Gleichbehandlungsgesetz und Persönlichkeitsdurchleuchtung/Fragerecht 114
aa) Allgemeines Gleichbehandlungsgesetz 114
bb) Persönlichkeitsdurchleuchtung/Fragerecht 115
cc) Keine Einwilligung in die Videoanalyse 116
c) Voraussetzungen der Einwilligung 116
aa) Freiwilligkeit der Erteilung der Einwilligung 117
(1) Koppelungsverbot 117
(a) Begriff der Erforderlichkeit 118
(b) Striktes oder eingeschränktes Koppelungsverbot 119
(2) Gesamtabwägung – Einzelfallumstände 120
(3) Zwischenergebnis – Keine Freiwilligkeit 122
bb) Informiertheit des Bewerbers 123
(1) Informationsumfang 123
(2) Verständlichkeit 124
cc) Unmissverständlichkeit und Formerfordernis 124
(1) Ausgangspunkt – Anforderungen bei graphologischen Gutachten 124
(2) Konsequenzen für den Einsatz von KI-Systemen 125
(3) Formerfordernisse im Beschäftigungskontext 126
d) Zwischenergebnis – Einwilligung 127
6. Auskunftsrecht in Bezug auf Ausgabedaten 128
a) Allgemeines – Sinn und Zweck des Auskunftsrechts 128
b) Personenbezug der Ausgabedaten 129
c) Verarbeitung der Ausgabedaten 130
d) Entgegenstehende Abwägung mit Fremdinteressen – Meinungsfreiheit 130
aa) Persönlichkeit und Emotionen des Bewerbers 131
bb) (Un-)Geeignetheit des Bewerbers 131
7. Anspruch auf Berichtigung der Ausgabedaten 132
III. Zwischenergebnis – Erlaubnistatbestand für die Datenverarbeitung 133
C. Verwendung der Ausgabedaten (und davon gegebenenfalls abhängige Informations- und Auskunftspflichten) 134
I. Entscheidungsunterstützende Systeme 135
II. Entscheidungsersetzende Systeme 135
1. Anspruch oder Verbot 136
2. Regelungsgegenstand des Art. 22 Abs. 1 DS-GVO – Automatisierte Entscheidung 138
a) Differenzierung zwischen Datenverarbeitung und Entscheidung 138
b) Profiling ≠ Automatisierte Entscheidung 139
c) Zuschreibung von Persönlichkeitsmerkmalen ≠ Automatisierte Entscheidung 140
3. Ausschließlichkeit – Menschliches Dazwischentreten 141
4. Rechtliche Wirkung oder ähnlich erhebliche Beeinträchtigung 143
a) Entfaltung rechtlicher Wirkung – Keine rechtliche Statusveränderung durch Ablehnung eines Vertragsschlusses 143
b) Ähnlich erhebliche Beeinträchtigung 144
aa) Erste Auffassung – Beschränkung auf monopolitische Märkte 145
bb) Zweite Auffassung – Einzelfallumstände 146
5. Zwischenergebnis – Einschlägigkeit des Verbots des Art. 22 Abs. 1 DS-GVO 147
6. Erlaubnistatbestände des Art. 22 Abs. 2 DS-GVO 147
a) Art. 22 Abs. 2 lit. a) DS-GVO – Erforderlichkeit für den Abschluss eines Vertrages 147
aa) Erste Auffassung – Unmittelbarer Sachzusammenhang 148
bb) Zweite Auffassung – Erforderlichkeit der Automatisierung der Entscheidung 149
b) Europäische oder mitgliedstaatliche Rechtsvorschriften 152
aa) Allgemeines – Nationale Zulässigkeitstatbestände 152
bb) § 31 BDSG – Nationaler Zulässigkeitstatbestand? 152
c) Ausdrückliche Einwilligung 154
7. Informationspflichten im Falle automatisierter Entscheidungen 155
a) Erstreckung der Informationspflicht 155
aa) Informationspflicht über die Durchführung von „bloßem“ Profiling („Bestehen einer automatisierten Entscheidungsfindung“) 156
bb) Bereitstellung aussagekräftiger Informationen über die involvierte Logik sowie die Tragweite der Verarbeitung auch bei der Durchführung von „bloßem“ Profiling? 157
(1) Erste Auffassung – Informationspflicht nur bei ausschließlich auf Profiling beruhender automatisierter Entscheidung 158
(2) Zweite Auffassung – Informationspflicht bei automatisierter ­Entscheidung und Möglichkeit freiwilliger Informationserteilung 159
(3) Dritte Auffassung – Informationspflicht in anderen Fällen 159
(a) Erste Unterauffassung – Informationspflicht bei Profiling 160
(b) Zweite Unterauffassung – Informationspflicht bei äquivalenten Risiken 161
(4) Zwischenergebnis – Erstreckung des Anwendungsbereichs erweiterter Informationspflichten 162
b) Umfang der Informationspflicht 163
aa) Mindestrechte 163
bb) Aussagekräftige Informationen über die involvierte Logik 164
(1) Offenlegung des Algorithmus – Allgemeines 164
(2) Offenlegung des Algorithmus – SCHUFA-Urteil des BGH 165
(3) Offenlegung des Algorithmus – DS-GVO und KI-Systeme 166
(a) Offenlegung des Ausgangskonstrukts 166
(b) Offenlegung des Anwendungsalgorithmus 167
(c) Zwischenergebnis – Keine Offenlegung des Algorithmus 171
8. Erklärbarkeit von KI-Systemen 172
a) Recht auf Erklärung 173
aa) Art. 15 Abs. 1 lit. h) – Abweichender Bedeutungsgehalt 174
bb) Art. 22 Abs. 3 DS-GVO; Erwägungsgrund 71, S. 4; Gesamtschau 176
(1) Recht auf Erklärung als Mindestmaßnahme im Sinne von Art. 22 Abs. 3 DS-GVO 177
(2) Recht auf Erklärung als angemessene Maßnahme 177
(3) Recht auf Erklärung als Produkt verschiedener Vorschriften 179
(4) Anwendungsbereich eines Rechts auf Erklärung auf Grundlage von Art. 22 Abs. 3 i. V. m. Erwägungsgrund 71 180
b) Umfang des Rechts auf Erklärung 181
aa) Angabe sämtlicher Parameter 182
bb) Angabe der wichtigsten Parameter 183
(1) Globale Methoden 184
(2) Lokale Methoden 185
(a) Kontrafaktische Erklärungen 186
(b) Lokale Features 187
(aa) Modellagnostische Ansätze 188
(bb) Modellspezifische/Dekompositionelle Ansätze 189
III. Zwischenergebnis – Verwendung der Ausgabedaten und davon gegebenenfalls abhängige Informations- und ­Auskunftspflichten 190
D. Potenzielle nachteilige Folgen bei unzulässiger Datenverarbeitung 192
I. Schadensersatzansprüche – Seltenheit materieller Schäden 193
II. Schadensersatz nach Art. 82 DS-GVO 193
1. Verstoß gegen die DS-GVO 193
2. Ersatzfähigkeit immaterieller Schäden 194
3. Kausalität 195
4. Exkulpation 195
III. Entschädigungsanspruch gemäß § 823 Abs. 1 BGB i. V. m. Art. 2 Abs. 1, 1 Abs. 1 GG 195
1. Schwerwiegende Persönlichkeitsrechtsverletzung 196
2. Rechtswidrigkeit 197
3. Subsidiarität der Entschädigung in Geld 197
4. Kapitel: Diskriminierungsrisiken und AGG 198
A. Vermeintliche Diskriminierungsfreiheit 198
B. Gegenteilige Beispiele 199
C. Anspruch auf Schadensersatz gemäß § 15 Abs. 1 AGG 199
I. Anwendbarkeit des AGG – Persönlich und sachlich 200
1. Persönlicher Anwendungsbereich – Formaler Bewerberbegriff 200
2. Sachlicher Anwendungsbereich – Zugang zu unselbstständiger Erwerbstätigkeit 200
3. Zwischenergebnis – Anwendbarkeit des AGG 201
II. Verstoß gegen das Benachteiligungsverbot des § 7 Abs. 1 AGG 201
1. Unmittelbare Benachteiligung – Weniger günstige Behandlung 201
a) Behandlung – Kein Erfordernis menschlichen Tuns oder Unterlassens 202
aa) Etymologie 202
bb) Wertungswiderspruch 203
cc) Vermeidung des Wertungswiderspruchs durch Anknüpfung an vorheriges, menschliches Verhalten – Werkzeugtheorie 204
(1) Inbetriebnahme als Benachteiligung 205
(2) (Keine) Unterbrechung des Kausalzusammenhangs 205
(3) Maßgeblichkeit der Vorgänge in der konkreten Bewerbungssituation 206
(4) Vorverlagerung des Antidiskriminierungsschutzes und die Fiktion des § 3 Abs. 5 AGG 207
dd) Zwischenergebnis – Kein Erfordernis menschlichen Tuns oder Unterlassens 208
b) Weniger günstig – Verortung des Nachteils 209
aa) Entscheidungsersetzende Systeme 209
(1) Nachteil durch (systeminterne) Prozesse 209
(2) Nachteil durch (Vor-)Auswahl 211
(3) Zwischenergebnis – Verortung des Nachteils bei entscheidungsersetzenden KI-Systemen 211
bb) Entscheidungsunterstützende Systeme 211
(1) Nachteil durch Zuschreibung von Merkmalen 212
(2) Nachteil durch Zahlenwert oder Platzierung 213
(a) Vergleichbarkeit mit Suchmaschinen 214
(b) Nutzung menschlicher Entscheidungsspielräume 215
(c) Ankereffekte und Verhaltensfolgen übersteigerten Systemvertrauens 215
(d) Zwischenergebnis – Nachteil durch Zahlenwert/Rangfolgenplatzierung 217
c) Direkte Anknüpfung an Benachteiligungsmerkmal 218
aa) Maßgeblichkeit des Trainingsprozesses 218
bb) Inbetriebnahme als unmittelbare Benachteiligung 220
cc) Systemverhalten als unmittelbare Benachteiligung 221
dd) Menschliche (Vor-)Auswahlentscheidung als unmittelbare Benachteiligung 222
d) Zwischenergebnis – Unmittelbare Benachteiligung 223
2. Mittelbare Benachteiligung 224
a) „dem Anschein nach neutrale Vorschriften, Kriterien oder Verfahren“ 224
b) „in besonderer Weise benachteiligen“ 226
aa) Behinderung 226
bb) Ethnische Herkunft 227
cc) Geschlecht 228
dd) Alter 228
ee) Videoanalyse 228
ff) Weitere potenzielle Korrelationen mit Benachteiligungsmerkmalen 229
c) Zwischenergebnis – Mittelbare Benachteiligung 229
3. Kausalität 230
III. § 22 AGG – Beweislast 230
1. Mögliche Vermutungstatsachen 231
2. Statistischer Nachweis 232
a) Vergleichsgruppenbildung bei KI-Systemen 233
b) Vergleich von Teilgruppen 234
c) Vergleich benachteiligte Teilgruppe – Gesamtgruppe 236
d) EuGH/US-amerikanisches Recht 236
e) Zwischenergebnis – Statistischer Nachweis 237
3. Einhegung der Durchsetzungsprobleme 238
a) Auskunftsanspruch und die Rechtssachen Kelly und Meister 239
b) Datenschutzrechtliche Betroffenenrechte 240
aa) Auskunftsrecht nach Art. 15 Abs. 1 lit. h) DS-GVO 240
bb) Alternative – Sekundäre Darlegungslast des Benutzers 241
IV. Rechtfertigung 243
1. Rechtfertigung einer mittelbaren Benachteiligung 243
a) Rechtmäßiges Ziel 243
b) Mittel zur Zielerreichung 244
aa) Geeignetheit des Mittels 244
(1) Kausalzusammenhang 245
(2) Statistischer Zusammenhang 246
(3) Prognosegenauigkeit 248
bb) Erforderlichkeit des Mittels 248
cc) Angemessenheit des Mittels 249
(1) Verzicht auf Differenzierung 250
(2) Direkte Ermittlung 251
(3) Alternative, indirekte Ermittlung 251
(a) Alternative Trainingsdatensätze 251
(b) Accuracy-Fairness-Tradeoff 252
(c) Unterschiedliche Konzeptualisierung von Fairness 253
2. Rechtfertigung einer unmittelbaren Benachteiligung 257
a) Erste Auffassung 257
b) Zweite Auffassung 258
V. Vertretenmüssen 258
1. Verschuldenserfordernis und Unionsrecht 259
a) Erste Auffassung – Unionsrechtswidrigkeit 259
b) Zweite Auffassung – Unionsrechtskonformität 260
c) Konsequenzen der verschiedenen Auffassungen 261
d) Zwischenergebnis – Verschuldenserfordernis und Unionsrecht 263
2. Eigenes Verschulden des Arbeitgebers 263
a) Sorgfaltswidrigkeit des Einsatzes per se 264
b) § 831 BGB/§ 12 Abs. 1 AGG – Auswahl und Überwachung 264
aa) Ordnungsgemäße Auswahl des KI-Systems 265
(1) Gruppenfairness oder individuelle Fairness 267
(2) Verzerrungserhaltende oder verzerrungsumwandelnde Fairnesskriterien 270
(3) Konkrete Fairnesskriterien 271
bb) Ordnungsgemäße Überwachung des KI-Systems 275
(1) Allgemeine Leitlinien 275
(2) Konkretisierender Maßstab des § 832 BGB 277
c) Berücksichtigung technischer Maßnahmen 278
aa) Pre-Processing-Verfahren 279
(1) Fairness by Blindness 280
(2) Relabelling, Resampling und Fair Representations 281
bb) In-Processing-Verfahren 281
cc) Post-Processing-Verfahren 282
(1) Ansatz von Post-Processing-Verfahren 282
(2) Rechtliche Grenzen der Anwendung bei Post-Processing 283
(a) Vorliegen einer positiven Maßnahme 284
(b) Vorfeldentscheidungen 284
(c) Einzelfallprüfung (keine automatische und unbedingte Vorrangeinräumung) 285
3. Zurechnung von schuldhaftem Fehlverhalten 286
a) Schuldhaftes Fehlverhalten des Entwicklers/Software-Anbieters 286
b) Schuldhaftes Fehlverhalten des Personalers 288
c) Schuldhaftes Fehlverhalten des Systems 289
aa) Programmtechnisches Versagen 289
bb) Adäquatheit der Garantiehaftung 292
cc) Ökonomische Erwägungen 293
dd) Personen, deren er sich zur Erfüllung seiner Verbindlichkeit bedient 295
(1) Gleichstellungsgedanke und funktionale Äquivalenz 295
(2) Eigenschaften des Erfüllungsgehilfen 296
(3) Verkehrserwartung 297
(4) Autonomie 297
(a) Grade von Autonomie 298
(b) „Sein oder Nichtsein“ 299
ee) Verschuldensfähigkeit 300
ff) Konkretes Verschulden 305
gg) Kein Erfordernis funktionaler Verschuldensäquivalente/Risikohaftung 307
hh) Alternativvorschlag zur Analogie 308
ii) Zwischenergebnis – Schuldhaftes Fehlverhalten des Systems 309
VI. Schaden 310
1. Bestqualifizierter Bewerber 310
2. Restliche Bewerber 312
D. Anspruch auf Entschädigung gemäß § 15 Abs. 2 AGG 313
I. Anspruchsvoraussetzungen 313
II. Höhe der Entschädigung 314
5. Kapitel: Zusammenfassung der Ergebnisse und Ausblick 318
A. Rückschau 318
B. Datenschutzrecht 318
I. Verarbeitung von Sprachdaten 318
1. Geeignetheit 319
2. Erforderlichkeit und Angemessenheit 319
II. Verarbeitung von Videodaten 320
III. Weiterverarbeitung 320
IV. Verwendung der Ausgabe 320
1. Grundsätzliches Verbot 320
2. Fälle erlaubter automatisierter Entscheidungen 321
V. Sicherstellung von Transparenz 321
1. Systemische Transparenz 322
2. Recht auf Erklärung 322
C. Antidiskriminierungsrecht 323
I. Verortung der Benachteiligung 323
II. Feststellung der Benachteiligung 325
1. Art. 15 Abs. 1 lit. h) DS-GVO 325
2. Weitere datenschutzrechtliche Hilfsmechanismen 326
III. Verschulden 326
IV. Rechtfertigung 327
V. Ursachen der Benachteiligung & Abhilfemechanismen 328
D. Ausblick – Europäische KI-Verordnung 329
I. Risikobasierter Ansatz 329
II. Anforderungen an Hochrisiko-KI-Systeme 330
1. Konformitätsnachweis 330
2. Inhaltliche Vorgaben der Art. 8–15 KI-VO-E 331
E. Zwischenzeitliche Handhabe & positive Perspektive 333
Literaturverzeichnis 335
Stichwortverzeichnis 365