Künstliche Intelligenz in Forschung, Lehre und Hochschule

BOOK
Cite BOOK
Style
Format
Künstliche Intelligenz in Forschung, Lehre und Hochschule
Editors: Löwisch, Manfred | Würtenberger, Thomas | Geis, Max-Emanuel | Heckmann, Dirk
Internetrecht und Digitale Gesellschaft, Vol. 72
(2025)
Additional Information
Book Details
Pricing
About The Author
Max-Emanuel Geis studierte Rechtswissenschaft in Augsburg und Freiburg. Nach Promotion und Habilitation in Regensburg übernahm er 1994/95 eine Professur für Öffentliches Recht in Augsburg. Nach einer weiteren Professur an der Universität Konstanz wechselte er 2002 auf den Lehrstuhl für Öffentliches Recht I an der Universität Erlangen-Nürnberg und gründete dort 2003 die Forschungsstelle für Wissenschafts- und Hochschulrecht, der er als Direktor vorsteht. Er hat mittlerweile über 280 Publikationen vorzuweisen. Seit 2022 ist er Sprecher des Kompetenzzentrums der Universität Erlangen-Nürnberg für interdisziplinäre Wissenschaftsreflexion (ZIWIS). Geis ist seit 2004 für den Wissenschaftsrat tätig. Seit 2018 ist er Mitglied des Bayerischen Verfassungsgerichtshofs.Manfred Löwisch studierte Rechtswissenschaften in Tübingen, Würzburg und München. Promotion in Tübingen. Habilitation in Hamburg. Seit 1969 o. Professor für Bürgerliches Recht, Wirtschaftsrecht, Arbeits- und Sozialversicherungsrecht an der Albert-Ludwigs-Universität Freiburg. 1980–1989 gleichzeitig Richter am OLG Karlsruhe. 1991–1995 Rektor der Universität Freiburg. 2000–2006 stellv. Vorsitzender des Universitätsrats. Seit 2005 Leiter der Forschungsstelle für Hochschularbeitsrecht an der Universität Freiburg. Zugleich Rechtsanwalt bei Krauss Law in Lahr (Schwarzwald).Thomas Würtenberger lehrt nach Professuren in Augsburg und Trier seit 1988 in Freiburg Staats- und Verwaltungsrecht, wo er seit 2005 die Forschungsstelle für Hochschulrecht leitet. Als Gastprofessor wirkte er u.a. an den Rechtsfakultäten von Paris I Sorbonne, Straßburg, Lausanne und Kyoto (Ritsumeikan). Seine Forschungsschwerpunkte liegen im Verfassungsrecht, Sicherheitsrecht, Hochschul- und Wissenschaftsrecht sowie in historischer Verfassungsvergleichung. Er ist Mitherausgeber der Internetzeitschrift »Ordnung der Wissenschaft«, hat Monographien u.a. zu »Zeitgeist und Recht« (2. Aufl. 1991) sowie »Symbole der Freiheit« (2017) veröffentlicht und ist Rechtsanwalt in der Stuttgarter Kanzlei Wuertenberger.Abstract
Digitalisierung und Künstliche Intelligenz sind der große Zug unserer Zeit. Noch zögert der akademische Bereich bisweilen im Umgang mit dem über ihn hereinbrechenden Wandel. Darauf reagiert dieser Sammelband. Mit seinen 25 Beiträgen gibt er einen Überblick über die Herausforderungen, vor die die Künstliche Intelligenz die Hochschulen stellt. Der Bogen ist weitgespannt: Er reicht von einer ethischen Grundlegung der Künstlichen Intelligenz über ihre unionsrechtlichen Regelungen und datenschutzrechtlichen Eingrenzungen bis hin zu praktischen Fragen ihrer Umsetzung im Hochschulalltag. Zentrale Themen wie die Nutzung Künstlicher Intelligenz in Prüfungsverfahren, ihre Eignung für Berufungsverfahren oder der Umgang mit Fake Papers weiter erörtert. Trotz der sich abzeichnenden digitalen Revolutionierung des Hochschulbereichs bleiben die Beiträge den Grundsätzen des Wissenschafts- und Hochschulrechts verpflichtet, ein Spagat, der die Praxistauglichkeit dieses Bandes fördert.»Artificial Intelligence in Research, Teaching and Higher Education«: Digitalisation and artificial intelligence are the big trends of our time. With its 25 contributions, this anthology provides an overview of the challenges that artificial intelligence poses for universities: from an ethical foundation of artificial intelligence, regulations under EU law and data protection restrictions to practical questions of its implementation in everyday university life. The contributions remain to the principles of science and higher education law, which enhances the practicality of this volume.
Table of Contents
Section Title | Page | Action | Price |
---|---|---|---|
Geleitwort | 5 | ||
Vorwort | 7 | ||
Inhaltsverzeichnis | 9 | ||
Dirk Heckmann und Sarah Rachut: Einführung: Künstliche Intelligenz im Mittelpunkt der Wissenschaft | 13 | ||
I. Künstliche Intelligenz: mehr als ein Hype | 13 | ||
II. Grundbegriffe und Grundlagen Künstlicher Intelligenz | 15 | ||
III. Auf dem Weg zu einem KI-Recht | 18 | ||
IV. Einsatz Künstlicher Intelligenz an Hochschulen: Rechtssicherheit im Übergang | 19 | ||
V. Künstliche Intelligenz im Spiegel des Straf-, Urheber- und Datenschutzrechts | 20 | ||
VI. Künstliche Intelligenz im Wissenschaftsbetrieb | 21 | ||
VII. Künstliche Intelligenz in einzelnen Anwendungsbereichen | 22 | ||
VIII. Ausblick | 22 | ||
I. Grundlagen, Grundfragen, Grundbegriffe | 25 | ||
Paul Kirchhof: Künstliche Intelligenz | 27 | ||
I. Der Ausgangsbefund: Der intelligent programmierte Automat | 27 | ||
II. Der Auftrag, die Herrschaft über die Maschine zu behalten | 28 | ||
III. Die Herrschaft des Menschen über die Technik | 30 | ||
IV. Maßstäbe für die Verantwortung des Menschen | 31 | ||
V. Die Verantwortlichen | 33 | ||
VI. Freiheit der Betroffenen | 34 | ||
VII. Anfälligkeit und Wehrhaftigkeit des Rechts | 36 | ||
Silja Voeneky: Key Elements of Responsible Artificial Intelligence: Human Rights, the EU AI Act, and the Need for Adaptive International AI Regulation | 39 | ||
I. AI Systems as Disruptive Multipurpose Tools | 40 | ||
1. How to define AI? | 43 | ||
2. How to regulate AI induced Risks and Potential Benefits? | 45 | ||
II. Human Rights as Legitimate Basis of AI Regulation? | 49 | ||
III. Sector-Specific AI Regulation to Protect Human Rights | 53 | ||
1. Regulation of AI-Driven Medical Devices in the EU | 54 | ||
2. Regulation of Automated and Autonomous Cars in Germany | 56 | ||
3. First Conclusion | 58 | ||
IV. Comprehensive AI Regulation | 59 | ||
1. OECD Principles on AI: Soft Law to Protect Human Rights | 59 | ||
2. EU AI Act: Law to Protect Fundamental Rights | 62 | ||
a) Introduction | 62 | ||
b) First Class of Risks: Prohibited AI Practices | 64 | ||
c) Second Class of Risks: High-Risk AI Systems | 65 | ||
aa) Adaptive and Future-Proof? | 66 | ||
bb) Specific Requirements | 68 | ||
cc) Conformity Assessment Procedure | 68 | ||
dd) Fundamental Rights Assessment | 71 | ||
d) Third Class of Risks: General-Purpose Models | 72 | ||
e) Rights Based Research Exception or Disproportional Loophole? | 74 | ||
3. Second Conclusion | 75 | ||
V. Outlook: A Universal International AI Treaty and Adaptive Regulation | 79 | ||
Hans Burkhardt: Ein Beitrag zur Künstlichen Intelligenz | 83 | ||
I. Was ist künstliche Intelligenz? | 83 | ||
II. Paradigmenwechsel: Künstliche Neuronale Netze | 84 | ||
III. Überkopfpendel | 87 | ||
IV. Deep Blue | 89 | ||
V. Der Durchbruch: Deep Learning mit Faltungsnetzen | 89 | ||
VI. AlphaGo Zero und Alpha Zero von Deep Mind (Google) | 90 | ||
1. AlphaGo Zero (Okt 2017) | 90 | ||
2. Alpha Zero von DeepMind (Dez 2017) | 92 | ||
3. Fortschritte bei der Hardware und dem Energieverbrauch beim Spielen | 93 | ||
VII. Besser als der Mensch | 93 | ||
VIII. Computer-Hardware | 95 | ||
IX. Ausblick | 96 | ||
Diemut Kucharz: Sprachverständnis und Sprachförderung in der Wissenschaft | 99 | ||
I. Einleitung | 99 | ||
II. Zentrale Sprachregister als Ausdruck von Sprachvarietäten | 100 | ||
1. Mögliche Arten von Sprachregistern | 101 | ||
2. Merkmale einzelner Sprachregister | 102 | ||
III. Bedeutung für Menschen mit Deutsch als Fremdsprache | 105 | ||
IV. Sprachliche Unterstützung und Förderung | 106 | ||
V. Fazit | 108 | ||
Maria Kalweit und Gabriel Kalweit: Warum wir neu lernen müssen, mit Maschinen zu sprechen – eine Momentaufnahme der Generativen Künstlichen Intelligenz im Januar 2024 | 111 | ||
I. Was verbirgt sich eigentlich hinter GPT? | 113 | ||
II. Warum jetzt? | 115 | ||
III. Welches Ziel verfolgen diese Systeme? | 117 | ||
IV. Was folgt daraus? | 118 | ||
V. Sind Halluzinationen Bug oder Feature? | 121 | ||
VI. Sind meine Daten sicher? | 123 | ||
VII. Wie ist die rechtliche Lage? | 124 | ||
VIII. Was sind die Implikationen? | 125 | ||
Kirsten Rulf: Why U.S. Universities have more influence in the global debate on AI Governance and Regulation and how German Universities can reclaim their seat at the table. A workshop report | 129 | ||
I. Introduction | 129 | ||
II. Not learning for school but for life | 131 | ||
III. Characteristics of the U.S. Professional School | 132 | ||
IV. Conclusion | 136 | ||
II. Auf dem Weg zu einem KI-Recht | 139 | ||
Daniel Becker und Daniel Feuerstack: Die EU-KI-Verordnung – Überblick und Bewertung mit Fokus auf Entwicklung und Einsatz von KI-Systemen an Hochschulen | 141 | ||
I. Einleitung | 141 | ||
II. Anwendungsbereich | 142 | ||
1. Sachlicher Anwendungsbereich: KI-Systeme | 142 | ||
2. Personeller und räumlicher Anwendungsbereich | 143 | ||
3. Ausnahmen | 144 | ||
III. Risikobasierter Ansatz | 146 | ||
1. Verbotene KI-Praktiken | 146 | ||
2. Hochrisiko-KI-Systeme | 147 | ||
3. KI-Systeme mit minimalem Risiko und Transparenzrisiko | 150 | ||
4. KI-Modelle mit generellem Verwendungszweck | 150 | ||
IV. Fazit | 153 | ||
Daniel Feuerstack: Menschenrechtliche Vorgaben an die Transparenz KI-basierter Entscheidungen und deren Berücksichtigung in bestehenden Regulierungsansätzen | 155 | ||
I. Einleitung | 156 | ||
II. Definition von KI-Systemen | 159 | ||
III. Das Problem der Intransparenz KI-basierter Entscheidungen und dessen rechtliche Konsequenzen | 160 | ||
1. Intransparenz und deren Ursachen | 160 | ||
2. Rechtliche Konsequenzen der Intransparenz KI-basierter Entscheidungen | 161 | ||
3. Qualitative Unterschiede zu anderen „Black Boxes“ | 163 | ||
IV. Menschenrechtliche Vorgaben an die Transparenz KI-basierter Entscheidungen | 165 | ||
1. Staatliche KI-basierte Entscheidungen | 165 | ||
a) Begründungspflicht aus dem Willkürverbot | 166 | ||
b) Begründungspflicht aus dem Recht auf wirksame Beschwerde in Verbindung mit dem Diskriminierungsverbot | 167 | ||
2. Nichtstaatliche KI-basierte Entscheidungen | 169 | ||
a) Keine indirekte Bindung an die Menschenrechte | 169 | ||
b) Staatliche Schutz- und Sorgfaltspflichten | 170 | ||
3. Rechtfertigung | 172 | ||
4. Zusammenfassung | 174 | ||
V. Transparenz in bestehenden Regulierungsansätzen | 175 | ||
1. Die EU-Datenschutzgrundverordnung | 175 | ||
2. Die EU-KI-Verordnung | 177 | ||
3. OECD-Empfehlungen zu KI | 178 | ||
VI. Zusammenfassung und Ausblick | 179 | ||
Michael Greiner: Künstliche Intelligenz in der bayerischen Hochschulpolitik | 181 | ||
I. Vorbemerkung | 181 | ||
II. Förderphilosophie und Zielsetzungen: HighTech Agenda Bayern und KI-Mission des Freistaat Bayern | 181 | ||
1. HighTech Agenda Bayern | 181 | ||
2. Leitgedanken der KI-Mission | 182 | ||
III. Grundlinien der Hightech Agenda Bayern | 183 | ||
IV. Grundlinien der HTA-Förderung in der Künstlichen Intelligenz | 184 | ||
V. Umsetzung des KI-Schwerpunkts an den bayerischen Hochschulen | 187 | ||
VI. Aktuelle Herausforderungen in Lehre und Prüfungswesen | 188 | ||
VII. Herausforderungen der Künstlichen Intelligenz in der Zukunft | 189 | ||
III. Einsatz Künstlicher Intelligenz an Hochschulen: Rechtssicherheit im Übergang | 191 | ||
Dirk Heckmann und Sarah Rachut: Rechtssichere Hochschulprüfungen mit und trotz generativer KI | 193 | ||
I. Einleitung | 193 | ||
1. Generative KI „überrollt“ universitäres Lernen, Lehren und Prüfen | 193 | ||
a) Perspektive der Studierenden | 194 | ||
b) Perspektive der Hochschule | 194 | ||
c) Perspektive der Lehrenden | 195 | ||
d) Zwischenfazit | 195 | ||
2. Einordnung generativer KI im Prüfungswesen | 195 | ||
a) Anknüpfungspunkt „zugelassene Hilfsmittel“ | 195 | ||
b) Anknüpfungspunkt „eigenständige Prüfungsleistung“ | 196 | ||
c) Fazit | 196 | ||
3. Rechtliche Herausforderungen | 197 | ||
a) de lege lata | 197 | ||
b) de lege ferenda | 197 | ||
II. Rechtliche Eckpunkte | 197 | ||
1. Relevante rechtliche Anforderungen | 198 | ||
a) Grundrechte (Art. 12 Abs. 1, Art. 3 Abs. 1, Art. 5 Abs. 3 GG) | 198 | ||
b) Rechtsstaatliche Anforderungen, insb. Gesetzesvorbehalt | 199 | ||
c) Einfachgesetzliches Prüfungsrecht | 200 | ||
d) Satzungsrecht (Prüfungsordnungen) | 200 | ||
e) Datenschutzrecht | 201 | ||
2. Perspektivisch: „KI-Recht“ | 202 | ||
III. Eckpunkte zur Systematik des Einsatzes generativer KI | 203 | ||
1. Begriffliche Annäherung | 203 | ||
a) Keine Definition von Künstlicher Intelligenz | 203 | ||
b) Zulassung, Einschränkung oder Verbot „technischer Hilfsmittel“ bei der Vorbereitung, Durchführung und (Täuschungs-)Kontrolle von Prüfungen | 204 | ||
2. Übersicht der Anwendungsszenarien I – Perspektive der Studierenden | 207 | ||
a) Vorbemerkung: Unterscheidung von beaufsichtigten Prüfungen (z. B. Klausuren) und unbeaufsichtigten schriftlichen Arbeiten (Bachelorarbeiten etc.) | 207 | ||
b) Digitale Anwendungen für „unterstütztes Lernen“ | 208 | ||
c) Generative KI als Recherche-Tool zu Prüfungsaufgaben | 208 | ||
d) Generative KI zur formalen Verbesserung eigenständig erstellter Texte | 209 | ||
e) Generative KI als Instrument zu Inspiration und Vorentwurf einer Aufgabenlösung | 209 | ||
f) Generative KI als Co-Erstellerin einer Prüfungsleistung | 209 | ||
3. Übersicht der Anwendungsszenarien II – Perspektive der Hochschule | 210 | ||
a) Einsatz von KI-Detektoren zur Täuschungskontrolle und Aufdeckung des KI-Einsatzes durch Studierende | 210 | ||
b) Exkurs: Einsatz von KI zur Klausuraufsicht | 213 | ||
c) Exkurs: Einsatz von KI zum Lehr-/Lern-Monitoring | 214 | ||
d) Exkurs: Einsatz generativer KI in der Hochschulverwaltung | 214 | ||
4. Übersicht der Anwendungsszenarien III – Perspektive der Lehrenden | 214 | ||
a) Einsatz von generativer KI zur Unterstützung der Lehre | 214 | ||
b) Einsatz von generativer KI zur Erstellung von Prüfungsaufgaben | 214 | ||
c) Einsatz von generativer KI als Bestandteil innovativer Lehr- und Prüfungsformate | 215 | ||
IV. Leitgedanken zum rechtssicheren Einsatz generativer KI im Prüfungskontext | 215 | ||
1. Disclaimer („work in progress“) | 215 | ||
2. Regulierungsbedarf | 216 | ||
3. Verhältnismäßiger Ausgleich von Lehr- und Lernfreiheit mit Chancengerechtigkeit | 217 | ||
V. Fazit | 218 | ||
Thomas Würtenberger: Wandel der Lehrfreiheit durch Digitalisierung und Künstliche Intelligenz | 221 | ||
I. Der verfassungsrechtliche Kontext der Fragestellung | 222 | ||
1. Keine gesetzliche Regelung der Verteilung von Lehrfreiheit | 222 | ||
2. Überblick über die verfassungsrechtlichen Fragestellungen | 223 | ||
II. Der verfassungsrechtliche Schutz der Lehrfreiheit von Professoren | 224 | ||
1. Der Schutzbereich | 224 | ||
2. Zur Differenzierung zwischen dem Schutz der Lehrfreiheit an staatlichen und an privaten Hochschulen | 225 | ||
III. Der verfassungsrechtliche Schutz der Lehrfreiheit der Hochschulen und ihrer akademischen Gremie | 227 | ||
IV. Grundrechtsschutz der Studierenden durch Art. 12 Abs. 1 und Art. 3 Abs. 1 GG | 227 | ||
1. Durch Art. 12 Abs. 1 GG | 228 | ||
2. Durch Art. 3 Abs. 1 GG | 228 | ||
V. Zur Auflösung von Grundrechtskollisionen im Bereich der Lehre | 228 | ||
1. Grundrechtsschutz durch Organisation, Verfahren und Beteiligungsrechte | 229 | ||
2. Beachtung der Verhältnismäßigkeit bei der Abgrenzung der Lehrfreiheit verschiedener Grundrechtsträger | 230 | ||
a) Besonders tiefe Eingriffe in die mit der Forschungsfreiheit verbundene Lehrfreiheit | 230 | ||
b) Eingriffe in die Didaktik betreffen nur Randbereiche der Lehrfreiheit | 231 | ||
3. Kompetenzteilung zwischen zentraler Leitungsebene und den Repräsentativorganen bei der Festlegung der Vorgaben für die Lehre | 233 | ||
VI. Einzelfragen der Zuordnung der Lehrfreiheit | 234 | ||
1. Vorgaben durch die Studien- und Prüfungsordnungen | 234 | ||
2. Geringstmöglicher Eingriff: zum Vorrang der Selbstorganisation der Lehre durch die beteiligten Hochschullehrer | 235 | ||
3. Vorgaben zu den Lehrformaten innerhalb eines akkreditierten Studiengangs | 235 | ||
4. Zur Freiheit der Methodenwahl | 236 | ||
5. Vorgaben zu den Prüfungsformen | 237 | ||
6. Fristen für Korrekturen etc. | 237 | ||
7. Tools zur Lehr- und Lernbegleitung und zur Verbesserung der Effizienz des Studiums | 238 | ||
8. Prüfungsaufsicht und Proctoring | 239 | ||
9. Formen generativer Künstlicher Intelligenz wie zum Beispiel ChatGPT | 239 | ||
10. Plagiatssoftware | 241 | ||
11. Verwendung von KI bei der Leistungsbewertung in Prüfungsverfahren? | 241 | ||
VII. Schlussbemerkung | 242 | ||
Rolf Schwartmann, Sonja Kurth und Moritz Köhler: Der Einsatz von KI an Hochschulen – eine rechtliche Betrachtung | 243 | ||
I. Einleitung | 243 | ||
II. Einsatz von KI auf Studierendenseite | 244 | ||
1. Rechtlicher Rahmen | 244 | ||
2. Übertragung des allgemeinen Prüfungsrechts auf den KI-Einsatz | 245 | ||
3. Neue Prüfungsordnungen und -formen | 247 | ||
4. Beweisrechtliche Fragen | 248 | ||
III. Einsatz von KI auf Hochschulseite | 250 | ||
1. Rechtlicher Rahmen | 250 | ||
a) Klassifizierung des KI-Einsatzes nach der KI-VO | 250 | ||
b) Rolle der Hochschule und ihres Personals nach der KI-VO | 251 | ||
c) Verhältnis der KI-VO zum sonstigen Recht | 252 | ||
2. Bewertung einzelner Anwendungsfälle | 252 | ||
a) Einsatz in der Lehre | 252 | ||
b) Einsatz zur Prüfungsbewertung | 253 | ||
aa) Bewertung nach KI-Verordnung | 253 | ||
bb) Bewertung nach Prüfungsrecht | 254 | ||
cc) Bewertung nach Datenschutzrecht | 254 | ||
IV. Handlungsempfehlungen für Hochschulen und deren Angehörige | 255 | ||
IV. Künstliche Intelligenz im Spiegel des Straf-, Urheber- und Datenschutzrechts | 257 | ||
Eric Hilgendorf: Künstliche Intelligenz, Papiermühlen und „fake research papers“. Neue Formen der Wissenschaftskriminalität in strafrechtlicher Perspektive | 259 | ||
I. Einleitung | 259 | ||
II. Wissenschaftliches Fehlverhalten vs. Vielfalt in der Wissenschaft | 261 | ||
III. Wissenschaftliches Fehlverhalten, Schutzgut und Vielfalt wissenschaftlicher Methoden | 262 | ||
IV. Neue Formen des Wissenschaftsbetrugs und erste Reaktionen der Wissenschaftsgemeinschaft | 265 | ||
V. Die Problemlage – fachspezifische Unterschiede | 267 | ||
VI. Organisierte Forschungsfälschung | 269 | ||
VII. Strafrechtliche Bewertung | 270 | ||
1. Einführung eines Straftatbestandes „Wissenschaftsbetrug“ (2012) | 270 | ||
2. Forschungsfälschungen und Betrug | 271 | ||
3. Zur Strafbarkeit des Betreibens von Fälschungswerkstätten | 273 | ||
4. Das Betreiben von Klonjournalen und pseudowissenschaftlichen Zeitschriften | 274 | ||
VIII. Ein neuer Straftatbestand zum Schutz der Integrität wissenschaftlicher Forschung? | 275 | ||
IX. Schutz vor ungerechtfertigten Beschuldigungen | 278 | ||
X. Resümee | 280 | ||
Anna K. Bernzen: Urheberrechtsverletzungen bei der Erstellung von Fake Research Papers | 281 | ||
I. Ein bekanntes Problem nimmt neue Dimensionen an | 281 | ||
II. Rechtsverletzung durch das Hochladen fremder Werke | 282 | ||
1. Urheberrechtliche Relevanz des Hochladens | 282 | ||
2. Mögliche Schrankenregelungen | 283 | ||
a) Schranke für vorübergehende Vervielfältigungshandlungen | 283 | ||
b) Text und Data Mining-Schranken | 283 | ||
3. Schlichte Einwilligung | 285 | ||
III. Rechtsverletzung durch Übernahmen aus fremden Werken | 286 | ||
1. Keine generelle Unzulässigkeit von Übernahmen | 286 | ||
2. Übernahme fremder Ideen | 287 | ||
3. Vervielfältigung fremder Werke | 287 | ||
a) Legitimierung durch die Zitatschranke | 287 | ||
b) Verletzung des Urheberpersönlichkeitsrechts | 290 | ||
4. Bearbeitung oder andere Umgestaltung fremder Werke | 290 | ||
IV. Rechtsverletzung aufgrund fremder Urheberschaft | 291 | ||
1. Urheberrechtsschutz für KI-generierte Papers | 291 | ||
2. Urheberschaft an KI-generierten Papers | 293 | ||
V. Nur punktuelle Handhabe nach dem Urheberrecht | 294 | ||
Monika Muhr: KI-Schöpfungen und Urheberrecht | 295 | ||
I. KI-Schöpfungen und Werkbegriff | 295 | ||
II. Schutzlücke hinsichtlich KI-Schöpfungen | 297 | ||
III. Schutzbedürftigkeit von KI-Schöpfungen aufgrund von Marktversagen | 298 | ||
IV. Eignung eines Schutzrechtszur Auflösung des Marktversagens | 299 | ||
V. Integration des Schutzes KI-Schöpfungen in das Immaterialgüterrecht | 299 | ||
Margrit Seckelmann und Jan Horstmann: Künstliche Intelligenz im Hochschulbereich und Datenschutz | 303 | ||
I. Einführung | 303 | ||
1. Die richtigen Noten für die falschen Studierenden? | 303 | ||
2. Grundlegende Einsichten für KI im Hochschulbereich | 305 | ||
II. Potenziale von KI an der Hochschule: Lehre im Fokus | 307 | ||
III. Spannungslagen zwischen KI und Datenschutz | 309 | ||
1. Relevante Merkmale von KI | 310 | ||
a) Grundlagen | 310 | ||
b) Trennung und Verschränkung der Datenverarbeitung in Training und Einsatz | 311 | ||
2. Ausgewählte datenschutzrechtliche Anforderungen und resultierende Spannungen | 312 | ||
a) Sachlicher und persönlicher Anwendungsbereich | 313 | ||
b) Datenschutzgrundsätze des Art. 5 DS-GVO | 315 | ||
c) Rechtsgrundlagen | 317 | ||
d) Übermittlung in Drittstaaten | 320 | ||
e) Profiling und automatisierte Entscheidung im Einzelfall | 321 | ||
f) Technisch-organisatorischer Datenschutz und Datenschutz-Folgenabschätzung | 327 | ||
V. Fazit und Ausblick | 329 | ||
V. Künstliche Intelligenz im Wissenschaftsbetrieb | 331 | ||
Charlene Röhl et al.: Industrie 4.0: Neue Metrik zur Vergabe von Professuren für die Technikwissenschaften | 333 | ||
I. Einleitung | 333 | ||
II. Publikationsbasierte Metriken reichen nicht aus für Lehrstuhlvergabe | 335 | ||
III. Konzept der Evalitech-Metrik | 335 | ||
IV. Evalitech-Demo: Assistenzsystem für Berufungsverfahren | 340 | ||
V. Schritte zum Einsatz der Evalitechmethode | 344 | ||
Klaus Herrmann: Berufungsverfahren für Professuren und künstliche Intelligenz | 347 | ||
I. Am Beispiel von Evalitech | 347 | ||
II. Einstellungsvoraussetzungen, Anforderungsprofil und „erweiterte“ Indikatorik | 352 | ||
1. Leistungsprinzip als Maßstab | 352 | ||
2. Gesetzliche Einstellungsvoraussetzungen | 355 | ||
3. Herausforderungen für Indikatorik | 358 | ||
III. Fachprinzip und Mitwirkung an der Selbstverwaltung gewährleistet Wissenschaftsfreiheit | 360 | ||
1. Selbstverwaltung in der Wissenschaft, Fachprinzip und Beurteilungsspielraum | 360 | ||
2. Mehrstufige Gremienbeteiligung und Bestenauslese, Dokumentationsanforderungen | 363 | ||
3. Herausforderungen für Indikatorik-Plattform bzw. KI | 365 | ||
IV. Feststellung und Vergleich wissenschaftlicher Leistungen durch die Berufungskommission | 366 | ||
1. Befugnis und Pflicht der Berufungskommission zum Leistungsvergleich | 366 | ||
2. Risiken arithmetischer Bewertungen | 369 | ||
3. Herausforderung an Bewertungsprozesse einer Indikatorikplattform | 371 | ||
V. Mitwirkungspflichten für Bewerber und Datenschutz der Indikatorikplattform | 372 | ||
1. Regelung von Mitwirkungspflichten durch Rechtsvorschrift | 373 | ||
2. Rechtsgrundlage und Erforderlichkeit der Indikatorikplattform | 374 | ||
3. Tracking, Datenzuordnung und Bewertung | 377 | ||
4. Zweckänderung bei außerwettbewerblicher Datennutzung | 380 | ||
VI. Fazit | 381 | ||
Matthias Bode: Zwischen Digitalisierung und Künstlicher Intelligenz: Chancen und Risiken der digitalen Transformation für die Hochschulzulassung | 383 | ||
I. Einleitendes | 383 | ||
II. Rahmenbedingung und Terminologie | 385 | ||
1. Was ist KI? | 385 | ||
2. Was ist Digitalisierung? | 386 | ||
3. Begriffliche Überschneidungen, Übergänge | 386 | ||
4. Hochschulzugang und -zulassung | 387 | ||
III. Out of the box: Chancen von KI | 389 | ||
1. Schnellere Analyse großer Datenmengen | 389 | ||
2. Reduktion von Vorurteilen und Diskriminierungen | 390 | ||
3. Identifizierung von Talenten und Potenzialen | 392 | ||
IV. Rechtliche Grenzen der Anwendung von KI | 393 | ||
1. Normierung von KI | 393 | ||
2. Europarechtlich: KI-Verordnung und DSGVO | 393 | ||
3. Staatsrechtlich | 395 | ||
4. Anwendungsfelder für KI | 397 | ||
a) Nutzung von Daten aus sozialen Medien | 397 | ||
b) Eignungstests | 397 | ||
c) Studienberatung | 398 | ||
d) Technische Unterstützung, etwa im Überbuchungsprozess | 399 | ||
V. Digitalisierung | 399 | ||
1. Zulassungsexterne Vorgaben für die Digitalisierung | 399 | ||
2. Zulassungsimmanente Bedarfe für Digitalisierung | 401 | ||
a) Nutzerfreundliche Ausgestaltung von Formularen | 401 | ||
b) Digitalisierung der Bildungsnachweise | 402 | ||
c) Unterstützung bei der „Bereinigung“ von Schul- oder Hochschulnoten | 402 | ||
d) Automatisierter Erlass von Verwaltungsakten | 404 | ||
e) Automatisierte Bekanntgabe von Bescheiden | 406 | ||
VI. Fazit | 408 | ||
VI. Künstliche Intelligenz in einzelnen Anwendungsbereichen | 409 | ||
Prof. Dr. Dirk Heckmann und Dr. Lorenz Marx: KI-Einsatz zur Leistungskontrolle am (Hochschul-)Arbeitsplatz. Anforderungen aus Sicht des Datenschutzrechts | 411 | ||
I. Einleitung | 411 | ||
II. Verhaltens- und Leistungskontrollen im betrieblichen und wissenschaftlichen Bereich | 413 | ||
III. Status Quo: Grundlagen des (Beschäftigten-)Datenschutzes im Kontext von Verhaltens- und Leistungskontrolle | 415 | ||
IV. Herausforderungen und Lösungsansätze | 417 | ||
1. Interessensabwägung bei Leistungskontrolle am Arbeitsplatz | 417 | ||
2. Der Einsatz von KI zur Leistungskontrolle: Verschärfung der Überwachung oder legitimes „Feintuning“? | 420 | ||
V. Ausblick auf den KI-Einsatz zur Leistungskontrolle im Beschäftigungskontext im Jahr 2030 | 422 | ||
VI. Handlungsempfehlungen | 423 | ||
VII. Zusammenfassung | 424 | ||
Gabriel Kalweit et al.: Künstliche Intelligenz in der Krebstherapie | 425 | ||
I. Einleitung | 425 | ||
II. Was ist KI? | 427 | ||
III. Wo KI bereits eingesetzt wird | 429 | ||
IV. Die Vision einer KI-kontrollierten Therapie | 431 | ||
V. Ethische Überlegungen der KI-gestützten Krebstherapie | 432 | ||
Andreas Zöllner: Künstliche Intelligenz und Mitbestimmung im Hochschul- und Wissenschaftsbetrieb. Zugleich eine systematische Gegenüberstellung von BetrVG und Personalvertretungsgesetzen | 435 | ||
I. Künstliche Intelligenz in der Betriebs- und Personalverfassung | 435 | ||
1. KI-Regelungen durch das Betriebsrätemodernisierungsgesetz | 436 | ||
2. Fehlende KI-Regelungen in den Personalvertretungsgesetzen | 436 | ||
3. Vergleich zwischen BetrVG und Personalvertretungsgesetzen – Mitbestimmungsdefizit in öffentlichen Dienststellen? | 436 | ||
a) Hinzuziehung von externen KI-Sachverständigen | 437 | ||
b) Rechtzeitige Unterrichtung und Beratung vor KI-Einsatz | 438 | ||
c) Personelle Auswahlrichtlinien durch/mittels KI | 439 | ||
d) Fazit | 440 | ||
4. Keine (Legal-)Definition für „Künstliche Intelligenz“ im BetrVG | 440 | ||
II. Weitere Mitbestimmungstatbestände | 441 | ||
III. KI-Mitbestimmung in der Rechtsprechung: Beschluss des ArbG Hamburg vom 16.01.2024 | 442 | ||
1. Sachverhalt | 442 | ||
2. Wesentlicher Inhalt der Entscheidung | 443 | ||
3. Bewertung der Entscheidung | 443 | ||
a) Keine technische Überwachung durch KI (§ 87 Abs. 1 Nr. 6 BetrVG) | 443 | ||
b) Auch keine Überwachung durch Kennzeichnung der KI-unterstützten Arbeitsergebnisse | 445 | ||
c) Ordnungsverhalten im Betrieb nicht berührt (§ 87 Abs. 1 Nr. 1 BetrVG) | 446 | ||
d) Gesundheitsschutz (§ 87 Abs. 1 Nr. 7 BetrVG) | 446 | ||
IV. Relevanz der Entscheidung für das öffentliche Hochschularbeitsrecht | 447 | ||
1. Gleichlauf der Mitbestimmung in BetrVG und Personalvertretungsgesetzen | 447 | ||
2. Digitalisierungsfreundliche Tendenzen der Verwaltungsgerichte | 447 | ||
V. Ausnahmen von der Mitbestimmung im Wissenschaftsbetrieb | 448 | ||
1. Tendenzschutz gem. § 118 Abs. 1 BetrVG | 448 | ||
2. KI-Tools zu Lehr- oder Forschungszwecken | 449 | ||
3. Tendenzschutz auch an öffentlich-rechtlichen Einrichtungen? | 449 | ||
VI. Auswirkungen der KI-Verordnung | 450 | ||
1. Art. 26 Abs. 7 KI-VO – kollektivrechtlicher Auffangtatbestand | 450 | ||
2. Eigenständige Bedeutung im Wissenschaftsbetrieb? | 451 | ||
3. Regelungssperren durch die KI-VO? | 451 | ||
VII. Einführung von ChatGPT an der Universität Hamburg (UHHGPT) | 451 | ||
1. Keine Beteiligung des Personalrats | 452 | ||
2. Bewertung | 452 | ||
3. Einführung von DeepL mit Zustimmung des Personalrats | 453 | ||
VIII. Fazit | 454 | ||
Gerrit Christoph: KI im industriellen Mittelstand: naive Hoffnungen, übertriebene Befürchtungen | 455 | ||
I. Um was geht es? | 455 | ||
II. Definitionen und Formen von KI | 455 | ||
III. KI als internationaler Wettbewerbsvorteil | 456 | ||
IV. Wo liegen brachliegende Potenziale? | 457 | ||
1. Finanz- und Rechnungswesen | 458 | ||
2. Personalmanagement | 458 | ||
3. Produktion | 458 | ||
4. Supply Chain Management | 459 | ||
5. Kundenkommunikation und Service | 459 | ||
6. Marketing und Vertrieb | 460 | ||
7. Entwicklung und Innovation | 460 | ||
V. Woran scheitert die zügige Einführung von KI in Unternehmen? | 460 | ||
1. Mensch | 460 | ||
2. Technik | 461 | ||
3. Kosten | 461 | ||
VI. Naive Hoffnungen, übertriebene Befürchtungen? | 462 | ||
VII. Fazit | 463 | ||
Pascal Bronner: Selbstlernende Systeme in Lernumgebungen. Der Einsatz von KI-Systemen in der Schulbildung und die KI-Verordnung der EU | 465 | ||
I. Einleitung | 465 | ||
II. Digitalisierung und KI in der Schule: (Rechts-)Politische Zielbestimmung | 466 | ||
III. Einsatz von KI-Systemen in der Schule | 468 | ||
1. Anwendungsebenen und technische Methoden | 468 | ||
a) Schulorganisationsebene | 468 | ||
b) Unterrichts- und Lernebene | 469 | ||
2. Anwendungsparadigmen von KI-Systemen im Schulkontext | 470 | ||
a) (Adaptive) Intelligente Tutoring-Systeme (ITS) | 470 | ||
b) Einsatz von generativer Künstlicher Intelligenz | 471 | ||
3. Potenziale und Herausforderungen: Gestaltung des KI-Einsatzes in Schulen | 472 | ||
IV. KI-Kompetenz („AI Literacy“) | 474 | ||
V. Die KI-VO und KI in der Schule: Rechtliche Implikationen | 475 | ||
1. Hintergrund: Der Regelungsinhalt der KI-VO | 475 | ||
2. KI-Systeme und GPAI-Modelle als Regelungsobjekt | 476 | ||
3. Schulen als Akteure in der KI-Wertschöpfungskette | 477 | ||
4. Rechtliche Anforderungen an den Betrieb von KI-Systemen im Schulkontext | 478 | ||
a) Verbot von KI-Systemen mit unannehmbarem Risiko | 478 | ||
b) Hochrisiko-KI-Systeme | 479 | ||
aa) Anwendungsbereiche des Art. 6 Abs. 2 i. V. m. Anh. III Nr. 3 KI-VO | 479 | ||
bb) Anforderungen an Schulen als Betreiber von Hochrisiko-KI-Systemen | 480 | ||
cc) Ausnahme des Art. 6 Abs. 3 KI-VO | 481 | ||
c) Bestimmte KI-Systeme, Art. 50 KI-VO: Transparenz und Kennzeichnung | 482 | ||
d) Generative KI-Modelle, Art. 51 ff. KI-VO | 482 | ||
VI. Fazit und Ausblick | 483 | ||
Autorenverzeichnis | 485 | ||
Sachregister | 489 |