Menu Expand

Künstliche Intelligenz in Forschung, Lehre und Hochschule

Cite BOOK

Style

Löwisch, M., Würtenberger, T., Geis, M., Heckmann, D. (Eds.) (2025). Künstliche Intelligenz in Forschung, Lehre und Hochschule. Duncker & Humblot. https://doi.org/10.3790/978-3-428-59325-5
Löwisch, Manfred; Würtenberger, Thomas; Geis, Max-Emanuel and Heckmann, Dirk. Künstliche Intelligenz in Forschung, Lehre und Hochschule. Duncker & Humblot, 2025. Book. https://doi.org/10.3790/978-3-428-59325-5
Löwisch, M, Würtenberger, T, Geis, M, Heckmann, D (eds.) (2025): Künstliche Intelligenz in Forschung, Lehre und Hochschule, Duncker & Humblot, [online] https://doi.org/10.3790/978-3-428-59325-5

Format

Künstliche Intelligenz in Forschung, Lehre und Hochschule

Editors: Löwisch, Manfred | Würtenberger, Thomas | Geis, Max-Emanuel | Heckmann, Dirk

Internetrecht und Digitale Gesellschaft, Vol. 72

(2025)

Additional Information

Book Details

Pricing

About The Author

Max-Emanuel Geis studierte Rechtswissenschaft in Augsburg und Freiburg. Nach Promotion und Habilitation in Regensburg übernahm er 1994/95 eine Professur für Öffentliches Recht in Augsburg. Nach einer weiteren Professur an der Universität Konstanz wechselte er 2002 auf den Lehrstuhl für Öffentliches Recht I an der Universität Erlangen-Nürnberg und gründete dort 2003 die Forschungsstelle für Wissenschafts- und Hochschulrecht, der er als Direktor vorsteht. Er hat mittlerweile über 280 Publikationen vorzuweisen. Seit 2022 ist er Sprecher des Kompetenzzentrums der Universität Erlangen-Nürnberg für interdisziplinäre Wissenschaftsreflexion (ZIWIS). Geis ist seit 2004 für den Wissenschaftsrat tätig. Seit 2018 ist er Mitglied des Bayerischen Verfassungsgerichtshofs.

Manfred Löwisch studierte Rechtswissenschaften in Tübingen, Würzburg und München. Promotion in Tübingen. Habilitation in Hamburg. Seit 1969 o. Professor für Bürgerliches Recht, Wirtschaftsrecht, Arbeits- und Sozialversicherungsrecht an der Albert-Ludwigs-Universität Freiburg. 1980–1989 gleichzeitig Richter am OLG Karlsruhe. 1991–1995 Rektor der Universität Freiburg. 2000–2006 stellv. Vorsitzender des Universitätsrats. Seit 2005 Leiter der Forschungsstelle für Hochschularbeitsrecht an der Universität Freiburg. Zugleich Rechtsanwalt bei Krauss Law in Lahr (Schwarzwald).

Thomas Würtenberger lehrt nach Professuren in Augsburg und Trier seit 1988 in Freiburg Staats- und Verwaltungsrecht, wo er seit 2005 die Forschungsstelle für Hochschulrecht leitet. Als Gastprofessor wirkte er u.a. an den Rechtsfakultäten von Paris I Sorbonne, Straßburg, Lausanne und Kyoto (Ritsumeikan). Seine Forschungsschwerpunkte liegen im Verfassungsrecht, Sicherheitsrecht, Hochschul- und Wissenschaftsrecht sowie in historischer Verfassungsvergleichung. Er ist Mitherausgeber der Internetzeitschrift »Ordnung der Wissenschaft«, hat Monographien u.a. zu »Zeitgeist und Recht« (2. Aufl. 1991) sowie »Symbole der Freiheit« (2017) veröffentlicht und ist Rechtsanwalt in der Stuttgarter Kanzlei Wuertenberger.

Abstract

Digitalisierung und Künstliche Intelligenz sind der große Zug unserer Zeit. Noch zögert der akademische Bereich bisweilen im Umgang mit dem über ihn hereinbrechenden Wandel. Darauf reagiert dieser Sammelband. Mit seinen 25 Beiträgen gibt er einen Überblick über die Herausforderungen, vor die die Künstliche Intelligenz die Hochschulen stellt. Der Bogen ist weitgespannt: Er reicht von einer ethischen Grundlegung der Künstlichen Intelligenz über ihre unionsrechtlichen Regelungen und datenschutzrechtlichen Eingrenzungen bis hin zu praktischen Fragen ihrer Umsetzung im Hochschulalltag. Zentrale Themen wie die Nutzung Künstlicher Intelligenz in Prüfungsverfahren, ihre Eignung für Berufungsverfahren oder der Umgang mit Fake Papers weiter erörtert. Trotz der sich abzeichnenden digitalen Revolutionierung des Hochschulbereichs bleiben die Beiträge den Grundsätzen des Wissenschafts- und Hochschulrechts verpflichtet, ein Spagat, der die Praxistauglichkeit dieses Bandes fördert.»Artificial Intelligence in Research, Teaching and Higher Education«: Digitalisation and artificial intelligence are the big trends of our time. With its 25 contributions, this anthology provides an overview of the challenges that artificial intelligence poses for universities: from an ethical foundation of artificial intelligence, regulations under EU law and data protection restrictions to practical questions of its implementation in everyday university life. The contributions remain to the principles of science and higher education law, which enhances the practicality of this volume.

Table of Contents

Section Title Page Action Price
Geleitwort 5
Vorwort 7
Inhaltsverzeichnis 9
Dirk Heckmann und Sarah Rachut: Einführung: Künstliche Intelligenz im Mittelpunkt der Wissenschaft 13
I. Künstliche Intelligenz: mehr als ein Hype 13
II. Grundbegriffe und Grundlagen Künstlicher Intelligenz 15
III. Auf dem Weg zu einem KI-Recht 18
IV. Einsatz Künstlicher Intelligenz an Hochschulen: Rechtssicherheit im Übergang 19
V. Künstliche Intelligenz im Spiegel des Straf-, Urheber- und Datenschutzrechts 20
VI. Künstliche Intelligenz im Wissenschaftsbetrieb 21
VII. Künstliche Intelligenz in einzelnen Anwendungsbereichen 22
VIII. Ausblick 22
I. Grundlagen, Grundfragen, Grundbegriffe 25
Paul Kirchhof: Künstliche Intelligenz 27
I. Der Ausgangsbefund: Der intelligent programmierte Automat 27
II. Der Auftrag, die Herrschaft über die Maschine zu behalten 28
III. Die Herrschaft des Menschen über die Technik 30
IV. Maßstäbe für die Verantwortung des Menschen 31
V. Die Verantwortlichen 33
VI. Freiheit der Betroffenen 34
VII. Anfälligkeit und Wehrhaftigkeit des Rechts 36
Silja Voeneky: Key Elements of Responsible Artificial Intelligence: Human Rights, the EU AI Act, and the Need for Adaptive International AI Regulation 39
I. AI Systems as Disruptive Multipurpose Tools 40
1. How to define AI? 43
2. How to regulate AI induced Risks and Potential Benefits? 45
II. Human Rights as Legitimate Basis of AI Regulation? 49
III. Sector-Specific AI Regulation to Protect Human Rights 53
1. Regulation of AI-Driven Medical Devices in the EU 54
2. Regulation of Automated and Autonomous Cars in Germany 56
3. First Conclusion 58
IV. Comprehensive AI Regulation 59
1. OECD Principles on AI: Soft Law to Protect Human Rights 59
2. EU AI Act: Law to Protect Fundamental Rights 62
a) Introduction 62
b) First Class of Risks: Prohibited AI Practices 64
c) Second Class of Risks: High-Risk AI Systems 65
aa) Adaptive and Future-Proof? 66
bb) Specific Requirements 68
cc) Conformity Assessment Procedure 68
dd) Fundamental Rights Assessment 71
d) Third Class of Risks: General-Purpose Models 72
e) Rights Based Research Exception or Disproportional Loophole? 74
3. Second Conclusion 75
V. Outlook: A Universal International AI Treaty and Adaptive Regulation 79
Hans Burkhardt: Ein Beitrag zur Künstlichen Intelligenz 83
I. Was ist künstliche Intelligenz? 83
II. Paradigmenwechsel: Künstliche Neuronale Netze 84
III. Überkopfpendel 87
IV. Deep Blue 89
V. Der Durchbruch: Deep Learning mit Faltungsnetzen 89
VI. AlphaGo Zero und Alpha Zero von Deep Mind (Google) 90
1. AlphaGo Zero (Okt 2017) 90
2. Alpha Zero von DeepMind (Dez 2017) 92
3. Fortschritte bei der Hardware und dem Energieverbrauch beim Spielen 93
VII. Besser als der Mensch 93
VIII. Computer-Hardware 95
IX. Ausblick 96
Diemut Kucharz: Sprachverständnis und Sprachförderung in der Wissenschaft 99
I. Einleitung 99
II. Zentrale Sprachregister als Ausdruck von Sprachvarietäten 100
1. Mögliche Arten von Sprachregistern 101
2. Merkmale einzelner Sprachregister 102
III. Bedeutung für Menschen mit Deutsch als Fremdsprache 105
IV. Sprachliche Unterstützung und Förderung 106
V. Fazit 108
Maria Kalweit und Gabriel Kalweit: Warum wir neu lernen müssen, mit Maschinen zu sprechen – eine Momentaufnahme der Generativen Künstlichen Intelligenz im Januar 2024 111
I. Was verbirgt sich eigentlich hinter GPT? 113
II. Warum jetzt? 115
III. Welches Ziel verfolgen diese Systeme? 117
IV. Was folgt daraus? 118
V. Sind Halluzinationen Bug oder Feature? 121
VI. Sind meine Daten sicher? 123
VII. Wie ist die rechtliche Lage? 124
VIII. Was sind die Implikationen? 125
Kirsten Rulf: Why U.S. Universities have more influence in the global debate on AI Governance and Regulation and how German Universities can reclaim their seat at the table. A workshop report 129
I. Introduction 129
II. Not learning for school but for life 131
III. Characteristics of the U.S. Professional School 132
IV. Conclusion 136
II. Auf dem Weg zu einem KI-Recht 139
Daniel Becker und Daniel Feuerstack: Die EU-KI-Verordnung – Überblick und Bewertung mit Fokus auf Entwicklung und Einsatz von KI-Systemen an Hochschulen 141
I. Einleitung 141
II. Anwendungsbereich 142
1. Sachlicher Anwendungsbereich: KI-Systeme 142
2. Personeller und räumlicher Anwendungsbereich 143
3. Ausnahmen 144
III. Risikobasierter Ansatz 146
1. Verbotene KI-Praktiken 146
2. Hochrisiko-KI-Systeme 147
3. KI-Systeme mit minimalem Risiko und Transparenzrisiko 150
4. KI-Modelle mit generellem Verwendungszweck 150
IV. Fazit 153
Daniel Feuerstack: Menschenrechtliche Vorgaben an die Transparenz KI-basierter Entscheidungen und deren Berücksichtigung in bestehenden Regulierungsansätzen 155
I. Einleitung 156
II. Definition von KI-Systemen 159
III. Das Problem der Intransparenz KI-basierter Entscheidungen und dessen rechtliche Konsequenzen 160
1. Intransparenz und deren Ursachen 160
2. Rechtliche Konsequenzen der Intransparenz KI-basierter Entscheidungen 161
3. Qualitative Unterschiede zu anderen „Black Boxes“ 163
IV. Menschenrechtliche Vorgaben an die Transparenz KI-basierter Entscheidungen 165
1. Staatliche KI-basierte Entscheidungen 165
a) Begründungspflicht aus dem Willkürverbot 166
b) Begründungspflicht aus dem Recht auf wirksame Beschwerde in Verbindung mit dem Diskriminierungsverbot 167
2. Nichtstaatliche KI-basierte Entscheidungen 169
a) Keine indirekte Bindung an die Menschenrechte 169
b) Staatliche Schutz- und Sorgfaltspflichten 170
3. Rechtfertigung 172
4. Zusammenfassung 174
V. Transparenz in bestehenden Regulierungsansätzen 175
1. Die EU-Datenschutzgrundverordnung 175
2. Die EU-KI-Verordnung 177
3. OECD-Empfehlungen zu KI 178
VI. Zusammenfassung und Ausblick 179
Michael Greiner: Künstliche Intelligenz in der bayerischen Hochschulpolitik 181
I. Vorbemerkung 181
II. Förderphilosophie und Zielsetzungen: HighTech Agenda Bayern und KI-Mission des Freistaat Bayern 181
1. HighTech Agenda Bayern 181
2. Leitgedanken der KI-Mission 182
III. Grundlinien der Hightech Agenda Bayern 183
IV. Grundlinien der HTA-Förderung in der Künstlichen Intelligenz 184
V. Umsetzung des KI-Schwerpunkts an den bayerischen Hochschulen 187
VI. Aktuelle Herausforderungen in Lehre und Prüfungswesen 188
VII. Herausforderungen der Künstlichen Intelligenz in der Zukunft 189
III. Einsatz Künstlicher Intelligenz an Hochschulen: Rechtssicherheit im Übergang 191
Dirk Heckmann und Sarah Rachut: Rechtssichere Hochschulprüfungen mit und trotz generativer KI 193
I. Einleitung 193
1. Generative KI „überrollt“ universitäres Lernen, Lehren und Prüfen 193
a) Perspektive der Studierenden 194
b) Perspektive der Hochschule 194
c) Perspektive der Lehrenden 195
d) Zwischenfazit 195
2. Einordnung generativer KI im Prüfungswesen 195
a) Anknüpfungspunkt „zugelassene Hilfsmittel“ 195
b) Anknüpfungspunkt „eigenständige Prüfungsleistung“ 196
c) Fazit 196
3. Rechtliche Herausforderungen 197
a) de lege lata 197
b) de lege ferenda 197
II. Rechtliche Eckpunkte 197
1. Relevante rechtliche Anforderungen 198
a) Grundrechte (Art. 12 Abs. 1, Art. 3 Abs. 1, Art. 5 Abs. 3 GG) 198
b) Rechtsstaatliche Anforderungen, insb. Gesetzesvorbehalt 199
c) Einfachgesetzliches Prüfungsrecht 200
d) Satzungsrecht (Prüfungsordnungen) 200
e) Datenschutzrecht 201
2. Perspektivisch: „KI-Recht“ 202
III. Eckpunkte zur Systematik des Einsatzes generativer KI 203
1. Begriffliche Annäherung 203
a) Keine Definition von Künstlicher Intelligenz 203
b) Zulassung, Einschränkung oder Verbot „technischer Hilfsmittel“ bei der Vorbereitung, Durchführung und (Täuschungs-)Kontrolle von Prüfungen 204
2. Übersicht der Anwendungsszenarien I – Perspektive der Studierenden 207
a) Vorbemerkung: Unterscheidung von beaufsichtigten Prüfungen (z. B. Klausuren) und unbeaufsichtigten schriftlichen Arbeiten (Bachelorarbeiten etc.) 207
b) Digitale Anwendungen für „unterstütztes Lernen“ 208
c) Generative KI als Recherche-Tool zu Prüfungsaufgaben 208
d) Generative KI zur formalen Verbesserung eigenständig erstellter Texte 209
e) Generative KI als Instrument zu Inspiration und Vorentwurf einer Aufgabenlösung 209
f) Generative KI als Co-Erstellerin einer Prüfungsleistung 209
3. Übersicht der Anwendungsszenarien II – Perspektive der Hochschule 210
a) Einsatz von KI-Detektoren zur Täuschungskontrolle und Aufdeckung des KI-Einsatzes durch Studierende 210
b) Exkurs: Einsatz von KI zur Klausuraufsicht 213
c) Exkurs: Einsatz von KI zum Lehr-/Lern-Monitoring 214
d) Exkurs: Einsatz generativer KI in der Hochschulverwaltung 214
4. Übersicht der Anwendungsszenarien III – Perspektive der Lehrenden 214
a) Einsatz von generativer KI zur Unterstützung der Lehre 214
b) Einsatz von generativer KI zur Erstellung von Prüfungsaufgaben 214
c) Einsatz von generativer KI als Bestandteil innovativer Lehr- und Prüfungsformate 215
IV. Leitgedanken zum rechtssicheren Einsatz generativer KI im Prüfungskontext 215
1. Disclaimer („work in progress“) 215
2. Regulierungsbedarf 216
3. Verhältnismäßiger Ausgleich von Lehr- und Lernfreiheit mit Chancengerechtigkeit 217
V. Fazit 218
Thomas Würtenberger: Wandel der Lehrfreiheit durch Digitalisierung und Künstliche Intelligenz 221
I. Der verfassungsrechtliche Kontext der Fragestellung 222
1. Keine gesetzliche Regelung der Verteilung von Lehrfreiheit 222
2. Überblick über die verfassungsrechtlichen Fragestellungen 223
II. Der verfassungsrechtliche Schutz der Lehrfreiheit von Professoren 224
1. Der Schutzbereich 224
2. Zur Differenzierung zwischen dem Schutz der Lehrfreiheit an staatlichen und an privaten Hochschulen 225
III. Der verfassungsrechtliche Schutz der Lehrfreiheit der Hochschulen und ihrer akademischen Gremie 227
IV. Grundrechtsschutz der Studierenden durch Art. 12 Abs. 1 und Art. 3 Abs. 1 GG 227
1. Durch Art. 12 Abs. 1 GG 228
2. Durch Art. 3 Abs. 1 GG 228
V. Zur Auflösung von Grundrechtskollisionen im Bereich der Lehre 228
1. Grundrechtsschutz durch Organisation, Verfahren und Beteiligungsrechte 229
2. Beachtung der Verhältnismäßigkeit bei der Abgrenzung der Lehrfreiheit verschiedener Grundrechtsträger 230
a) Besonders tiefe Eingriffe in die mit der Forschungsfreiheit verbundene Lehrfreiheit 230
b) Eingriffe in die Didaktik betreffen nur Randbereiche der Lehrfreiheit 231
3. Kompetenzteilung zwischen zentraler Leitungsebene und den Repräsentativorganen bei der Festlegung der Vorgaben für die Lehre 233
VI. Einzelfragen der Zuordnung der Lehrfreiheit 234
1. Vorgaben durch die Studien- und Prüfungsordnungen 234
2. Geringstmöglicher Eingriff: zum Vorrang der Selbstorganisation der Lehre durch die beteiligten Hochschullehrer 235
3. Vorgaben zu den Lehrformaten innerhalb eines akkreditierten Studiengangs 235
4. Zur Freiheit der Methodenwahl 236
5. Vorgaben zu den Prüfungsformen 237
6. Fristen für Korrekturen etc. 237
7. Tools zur Lehr- und Lernbegleitung und zur Verbesserung der Effizienz des Studiums 238
8. Prüfungsaufsicht und Proctoring 239
9. Formen generativer Künstlicher Intelligenz wie zum Beispiel ChatGPT 239
10. Plagiatssoftware 241
11. Verwendung von KI bei der Leistungsbewertung in Prüfungsverfahren? 241
VII. Schlussbemerkung 242
Rolf Schwartmann, Sonja Kurth und Moritz Köhler: Der Einsatz von KI an Hochschulen – eine rechtliche Betrachtung 243
I. Einleitung 243
II. Einsatz von KI auf Studierendenseite 244
1. Rechtlicher Rahmen 244
2. Übertragung des allgemeinen Prüfungsrechts auf den KI-Einsatz 245
3. Neue Prüfungsordnungen und -formen 247
4. Beweisrechtliche Fragen 248
III. Einsatz von KI auf Hochschulseite 250
1. Rechtlicher Rahmen 250
a) Klassifizierung des KI-Einsatzes nach der KI-VO 250
b) Rolle der Hochschule und ihres Personals nach der KI-VO 251
c) Verhältnis der KI-VO zum sonstigen Recht 252
2. Bewertung einzelner Anwendungsfälle 252
a) Einsatz in der Lehre 252
b) Einsatz zur Prüfungsbewertung 253
aa) Bewertung nach KI-Verordnung 253
bb) Bewertung nach Prüfungsrecht 254
cc) Bewertung nach Datenschutzrecht 254
IV. Handlungsempfehlungen für Hochschulen und deren Angehörige 255
IV. Künstliche Intelligenz im Spiegel des Straf-, Urheber- und Datenschutzrechts 257
Eric Hilgendorf: Künstliche Intelligenz, Papiermühlen und „fake research papers“. Neue Formen der Wissenschaftskriminalität in strafrechtlicher Perspektive 259
I. Einleitung 259
II. Wissenschaftliches Fehlverhalten vs. Vielfalt in der Wissenschaft 261
III. Wissenschaftliches Fehlverhalten, Schutzgut und Vielfalt wissenschaftlicher Methoden 262
IV. Neue Formen des Wissenschaftsbetrugs und erste Reaktionen der Wissenschaftsgemeinschaft 265
V. Die Problemlage – fachspezifische Unterschiede 267
VI. Organisierte Forschungsfälschung 269
VII. Strafrechtliche Bewertung 270
1. Einführung eines Straftatbestandes „Wissenschaftsbetrug“ (2012) 270
2. Forschungsfälschungen und Betrug 271
3. Zur Strafbarkeit des Betreibens von Fälschungswerkstätten 273
4. Das Betreiben von Klonjournalen und pseudowissenschaftlichen Zeitschriften 274
VIII. Ein neuer Straftatbestand zum Schutz der Integrität wissenschaftlicher Forschung? 275
IX. Schutz vor ungerechtfertigten Beschuldigungen 278
X. Resümee 280
Anna K. Bernzen: Urheberrechtsverletzungen bei der Erstellung von Fake Research Papers 281
I. Ein bekanntes Problem nimmt neue Dimensionen an 281
II. Rechtsverletzung durch das Hochladen fremder Werke 282
1. Urheberrechtliche Relevanz des Hochladens 282
2. Mögliche Schrankenregelungen 283
a) Schranke für vorübergehende Vervielfältigungshandlungen 283
b) Text und Data Mining-Schranken 283
3. Schlichte Einwilligung 285
III. Rechtsverletzung durch Übernahmen aus fremden Werken 286
1. Keine generelle Unzulässigkeit von Übernahmen 286
2. Übernahme fremder Ideen 287
3. Vervielfältigung fremder Werke 287
a) Legitimierung durch die Zitatschranke 287
b) Verletzung des Urheberpersönlichkeitsrechts 290
4. Bearbeitung oder andere Umgestaltung fremder Werke 290
IV. Rechtsverletzung aufgrund fremder Urheberschaft 291
1. Urheberrechtsschutz für KI-generierte Papers 291
2. Urheberschaft an KI-generierten Papers 293
V. Nur punktuelle Handhabe nach dem Urheberrecht 294
Monika Muhr: KI-Schöpfungen und Urheberrecht 295
I. KI-Schöpfungen und Werkbegriff 295
II. Schutzlücke hinsichtlich KI-Schöpfungen 297
III. Schutzbedürftigkeit von KI-Schöpfungen aufgrund von Marktversagen 298
IV. Eignung eines Schutzrechtszur Auflösung des Marktversagens 299
V. Integration des Schutzes KI-Schöpfungen in das Immaterialgüterrecht 299
Margrit Seckelmann und Jan Horstmann: Künstliche Intelligenz im Hochschulbereich und Datenschutz 303
I. Einführung 303
1. Die richtigen Noten für die falschen Studierenden? 303
2. Grundlegende Einsichten für KI im Hochschulbereich 305
II. Potenziale von KI an der Hochschule: Lehre im Fokus 307
III. Spannungslagen zwischen KI und Datenschutz 309
1. Relevante Merkmale von KI 310
a) Grundlagen 310
b) Trennung und Verschränkung der Datenverarbeitung in Training und Einsatz 311
2. Ausgewählte datenschutzrechtliche Anforderungen und resultierende Spannungen 312
a) Sachlicher und persönlicher Anwendungsbereich 313
b) Datenschutzgrundsätze des Art. 5 DS-GVO 315
c) Rechtsgrundlagen 317
d) Übermittlung in Drittstaaten 320
e) Profiling und automatisierte Entscheidung im Einzelfall 321
f) Technisch-organisatorischer Datenschutz und Datenschutz-Folgenabschätzung 327
V. Fazit und Ausblick 329
V. Künstliche Intelligenz im Wissenschaftsbetrieb 331
Charlene Röhl et al.: Industrie 4.0: Neue Metrik zur Vergabe von Professuren für die Technikwissenschaften 333
I. Einleitung 333
II. Publikationsbasierte Metriken reichen nicht aus für Lehrstuhlvergabe 335
III. Konzept der Evalitech-Metrik 335
IV. Evalitech-Demo: Assistenzsystem für Berufungsverfahren 340
V. Schritte zum Einsatz der Evalitechmethode 344
Klaus Herrmann: Berufungsverfahren für Professuren und künstliche Intelligenz 347
I. Am Beispiel von Evalitech 347
II. Einstellungsvoraussetzungen, Anforderungsprofil und „erweiterte“ Indikatorik 352
1. Leistungsprinzip als Maßstab 352
2. Gesetzliche Einstellungsvoraussetzungen 355
3. Herausforderungen für Indikatorik 358
III. Fachprinzip und Mitwirkung an der Selbstverwaltung gewährleistet Wissenschaftsfreiheit 360
1. Selbstverwaltung in der Wissenschaft, Fachprinzip und Beurteilungsspielraum 360
2. Mehrstufige Gremienbeteiligung und Bestenauslese, Dokumentationsanforderungen 363
3. Herausforderungen für Indikatorik-Plattform bzw. KI 365
IV. Feststellung und Vergleich wissenschaftlicher Leistungen durch die Berufungskommission 366
1. Befugnis und Pflicht der Berufungskommission zum Leistungsvergleich 366
2. Risiken arithmetischer Bewertungen 369
3. Herausforderung an Bewertungsprozesse einer Indikatorikplattform 371
V. Mitwirkungspflichten für Bewerber und Datenschutz der Indikatorikplattform 372
1. Regelung von Mitwirkungspflichten durch Rechtsvorschrift 373
2. Rechtsgrundlage und Erforderlichkeit der Indikatorikplattform 374
3. Tracking, Datenzuordnung und Bewertung 377
4. Zweckänderung bei außerwettbewerblicher Datennutzung 380
VI. Fazit 381
Matthias Bode: Zwischen Digitalisierung und Künstlicher Intelligenz: Chancen und Risiken der digitalen Transformation für die Hochschulzulassung 383
I. Einleitendes 383
II. Rahmenbedingung und Terminologie 385
1. Was ist KI? 385
2. Was ist Digitalisierung? 386
3. Begriffliche Überschneidungen, Übergänge 386
4. Hochschulzugang und -zulassung 387
III. Out of the box: Chancen von KI 389
1. Schnellere Analyse großer Datenmengen 389
2. Reduktion von Vorurteilen und Diskriminierungen 390
3. Identifizierung von Talenten und Potenzialen 392
IV. Rechtliche Grenzen der Anwendung von KI 393
1. Normierung von KI 393
2. Europarechtlich: KI-Verordnung und DSGVO 393
3. Staatsrechtlich 395
4. Anwendungsfelder für KI 397
a) Nutzung von Daten aus sozialen Medien 397
b) Eignungstests 397
c) Studienberatung 398
d) Technische Unterstützung, etwa im Überbuchungsprozess 399
V. Digitalisierung 399
1. Zulassungsexterne Vorgaben für die Digitalisierung 399
2. Zulassungsimmanente Bedarfe für Digitalisierung 401
a) Nutzerfreundliche Ausgestaltung von Formularen 401
b) Digitalisierung der Bildungsnachweise 402
c) Unterstützung bei der „Bereinigung“ von Schul- oder Hochschulnoten 402
d) Automatisierter Erlass von Verwaltungsakten 404
e) Automatisierte Bekanntgabe von Bescheiden 406
VI. Fazit 408
VI. Künstliche Intelligenz in einzelnen Anwendungsbereichen 409
Prof. Dr. Dirk Heckmann und Dr. Lorenz Marx: KI-Einsatz zur Leistungskontrolle am (Hochschul-)Arbeitsplatz. Anforderungen aus Sicht des Datenschutzrechts 411
I. Einleitung 411
II. Verhaltens- und Leistungskontrollen im betrieblichen und wissenschaftlichen Bereich 413
III. Status Quo: Grundlagen des (Beschäftigten-)Datenschutzes im Kontext von Verhaltens- und Leistungskontrolle 415
IV. Herausforderungen und Lösungsansätze 417
1. Interessensabwägung bei Leistungskontrolle am Arbeitsplatz 417
2. Der Einsatz von KI zur Leistungskontrolle: Verschärfung der Überwachung oder legitimes „Feintuning“? 420
V. Ausblick auf den KI-Einsatz zur Leistungskontrolle im Beschäftigungskontext im Jahr 2030 422
VI. Handlungsempfehlungen 423
VII. Zusammenfassung 424
Gabriel Kalweit et al.: Künstliche Intelligenz in der Krebstherapie 425
I. Einleitung 425
II. Was ist KI? 427
III. Wo KI bereits eingesetzt wird 429
IV. Die Vision einer KI-kontrollierten Therapie 431
V. Ethische Überlegungen der KI-gestützten Krebstherapie 432
Andreas Zöllner: Künstliche Intelligenz und Mitbestimmung im Hochschul- und Wissenschaftsbetrieb. Zugleich eine systematische Gegenüberstellung von BetrVG und Personalvertretungsgesetzen 435
I. Künstliche Intelligenz in der Betriebs- und Personalverfassung 435
1. KI-Regelungen durch das Betriebsrätemodernisierungsgesetz 436
2. Fehlende KI-Regelungen in den Personalvertretungsgesetzen 436
3. Vergleich zwischen BetrVG und Personalvertretungsgesetzen – Mitbestimmungsdefizit in öffentlichen Dienststellen? 436
a) Hinzuziehung von externen KI-Sachverständigen 437
b) Rechtzeitige Unterrichtung und Beratung vor KI-Einsatz 438
c) Personelle Auswahlrichtlinien durch/mittels KI 439
d) Fazit 440
4. Keine (Legal-)Definition für „Künstliche Intelligenz“ im BetrVG 440
II. Weitere Mitbestimmungstatbestände 441
III. KI-Mitbestimmung in der Rechtsprechung: Beschluss des ArbG Hamburg vom 16.01.2024 442
1. Sachverhalt 442
2. Wesentlicher Inhalt der Entscheidung 443
3. Bewertung der Entscheidung 443
a) Keine technische Überwachung durch KI (§ 87 Abs. 1 Nr. 6 BetrVG) 443
b) Auch keine Überwachung durch Kennzeichnung der KI-unterstützten Arbeitsergebnisse 445
c) Ordnungsverhalten im Betrieb nicht berührt (§ 87 Abs. 1 Nr. 1 BetrVG) 446
d) Gesundheitsschutz (§ 87 Abs. 1 Nr. 7 BetrVG) 446
IV. Relevanz der Entscheidung für das öffentliche Hochschularbeitsrecht 447
1. Gleichlauf der Mitbestimmung in BetrVG und Personalvertretungsgesetzen 447
2. Digitalisierungsfreundliche Tendenzen der Verwaltungsgerichte 447
V. Ausnahmen von der Mitbestimmung im Wissenschaftsbetrieb 448
1. Tendenzschutz gem. § 118 Abs. 1 BetrVG 448
2. KI-Tools zu Lehr- oder Forschungszwecken 449
3. Tendenzschutz auch an öffentlich-rechtlichen Einrichtungen? 449
VI. Auswirkungen der KI-Verordnung 450
1. Art. 26 Abs. 7 KI-VO – kollektivrechtlicher Auffangtatbestand 450
2. Eigenständige Bedeutung im Wissenschaftsbetrieb? 451
3. Regelungssperren durch die KI-VO? 451
VII. Einführung von ChatGPT an der Universität Hamburg (UHHGPT) 451
1. Keine Beteiligung des Personalrats 452
2. Bewertung 452
3. Einführung von DeepL mit Zustimmung des Personalrats 453
VIII. Fazit 454
Gerrit Christoph: KI im industriellen Mittelstand: naive Hoffnungen, übertriebene Befürchtungen 455
I. Um was geht es? 455
II. Definitionen und Formen von KI 455
III. KI als internationaler Wettbewerbsvorteil 456
IV. Wo liegen brachliegende Potenziale? 457
1. Finanz- und Rechnungswesen 458
2. Personalmanagement 458
3. Produktion 458
4. Supply Chain Management 459
5. Kundenkommunikation und Service 459
6. Marketing und Vertrieb 460
7. Entwicklung und Innovation 460
V. Woran scheitert die zügige Einführung von KI in Unternehmen? 460
1. Mensch 460
2. Technik 461
3. Kosten 461
VI. Naive Hoffnungen, übertriebene Befürchtungen? 462
VII. Fazit 463
Pascal Bronner: Selbstlernende Systeme in Lernumgebungen. Der Einsatz von KI-Systemen in der Schulbildung und die KI-Verordnung der EU 465
I. Einleitung 465
II. Digitalisierung und KI in der Schule: (Rechts-)Politische Zielbestimmung 466
III. Einsatz von KI-Systemen in der Schule 468
1. Anwendungsebenen und technische Methoden 468
a) Schulorganisationsebene 468
b) Unterrichts- und Lernebene 469
2. Anwendungsparadigmen von KI-Systemen im Schulkontext 470
a) (Adaptive) Intelligente Tutoring-Systeme (ITS) 470
b) Einsatz von generativer Künstlicher Intelligenz 471
3. Potenziale und Herausforderungen: Gestaltung des KI-Einsatzes in Schulen 472
IV. KI-Kompetenz („AI Literacy“) 474
V. Die KI-VO und KI in der Schule: Rechtliche Implikationen 475
1. Hintergrund: Der Regelungsinhalt der KI-VO 475
2. KI-Systeme und GPAI-Modelle als Regelungsobjekt 476
3. Schulen als Akteure in der KI-Wertschöpfungskette 477
4. Rechtliche Anforderungen an den Betrieb von KI-Systemen im Schulkontext 478
a) Verbot von KI-Systemen mit unannehmbarem Risiko 478
b) Hochrisiko-KI-Systeme 479
aa) Anwendungsbereiche des Art. 6 Abs. 2 i. V. m. Anh. III Nr. 3 KI-VO 479
bb) Anforderungen an Schulen als Betreiber von Hochrisiko-KI-Systemen 480
cc) Ausnahme des Art. 6 Abs. 3 KI-VO 481
c) Bestimmte KI-Systeme, Art. 50 KI-VO: Transparenz und Kennzeichnung 482
d) Generative KI-Modelle, Art. 51 ff. KI-VO 482
VI. Fazit und Ausblick 483
Autorenverzeichnis 485
Sachregister 489