KI-Sprachmodelle lassen sich vielfältig in Forschung, Lehre und Studium einsetzen. Wir greifen auf dieser Seite rechtliche Aspekte aus der Lehre auf, damit Sie sich gut orientieren können.
Die hier angeführten FAQ sind ein Auszug aus unserer Handreichung Textgenerierende KI: Rechtliche Aspekte beim Einsatz an der LUH. Sie sind weder allumfassend noch rechtsverbindlich. Im konkreten Einzelfall ist eine rechtliche Prüfung angeraten.
Stand: September 2024
FAQ
Allgemeines
-
Wie ist KI definiert und wieso geht es hier vor allem um Sprachmodelle?
Große Sprachmodelle (Large Language Models) sind eine Form der künstlichen Intelligenz, die die menschliche Intelligenz in Form von Sprachproduktion nachahmen kann. Sie verwenden statistische Modelle, um große Datenmengen zu analysieren sowie Muster und Verbindungen zwischen Wörtern und Sätzen zu erkennen. Sprachmodelle wie ChatGPT werden mit großen Textmengen trainiert und sind in der Lage, mit Fragenstellenden zu interagieren, Fragen zu beantworten und längere Texte zu schreiben. Diese Handreichung beschränkt sich aus praktischen Gründen auf KI in sogenannten Sprachmodellen, die Texte generieren können.
-
Wie sollten Lehrende gegenüber Studierenden mit KI-Anwendungen umgehen?
- Es ist zu erwarten, dass textgenerierende KI-Anwendungen in naher Zukunft eine immer größere Rolle in der wissenschaftlichen Arbeit spielen werden; daher sollten für das Fach und die Aufgabenstellung relevante Werkzeuge auch im Rahmen des Studiums präsentiert und der Umgang mit ihnen geübt werden.
- Als Lehrende führen Sie Studierende in die Regeln guter wissenschaftlicher Praxis ein.
- Studierende sollen Eigenständigkeitserklärung des Instituts in der aktuellen Fassung verwenden (Salden & Leschke, 2023, S. 32 f.).
- Insbesondere bei der Betreuung wissenschaftlicher Arbeiten ist es wichtig, Studierenden schon zu Beginn der Arbeit ganz klar deutlich zu machen, in welcher Form und wie detailliert die Nutzung von Hilfsmitteln dokumentiert werden soll und ob es ggfs. Whitelists von Anwendungen gibt, die nicht gesondert zu dokumentieren sind (z. B. MS Office bis Version X).
- Es ist zu erwarten, dass textgenerierende KI-Anwendungen in naher Zukunft eine immer größere Rolle in der wissenschaftlichen Arbeit spielen werden; daher sollten für das Fach und die Aufgabenstellung relevante Werkzeuge auch im Rahmen des Studiums präsentiert und der Umgang mit ihnen geübt werden.
-
Eignet sich ein Sprachmodell als Recherche-Instrument?
Sprachmodelle sind keine Wissensdatenbanken und funktionieren auch nicht wie Suchmaschinen, d. h. es wird nicht anhand von Stichwörtern oder ganzen Fragen nach möglichen Quellen im Internet gesucht. Vielmehr leitet die KI aus dem Textmaterial Bedeutungszusammenhänge zwischen den Wörtern ab, die zu einer grammatisch (morphologisch, syntaktisch und semantisch) korrekten Sprachausgabe führen und den Eindruck vermitteln, dass menschliche Kommunikation stattfindet.
Am Beispiel von ChatGPT sollen hier einige der derzeitigen Einschränkungen aufgezeigt werden, die bei der Verwendung von Sprachmodellen für wissenschaftliche Arbeiten zu beachten sind:
- Wissensstand: Die Trainingsdaten des Modells enden im Moment im Januar 2022, so dass keine aktuellen Informationen recherchiert werden können. Dieser Aspekt der zeitlich beschränkten Trainingsdaten ist auch für andere LLM relevant. Ausnahmen sind Systeme, welche auch Zugriff auf das Internet haben und von dort Suchergebnisse mit in ihre Antworten einbeziehen können, wie z. B. Microsoft Bing.
- Quellenangaben: Die Antworten des Chatbots enthalten oft keine, falsche oder nicht-existente Quellenangaben. Angegebene Quellen sind zu überprüfen, auch wenn sie plausibel erscheinen (angegebene doi, real vorhandene Zeitschriftentitel etc.).
- Halluzinationen: Die KI arbeitet nicht faktentreu, sondern stellt Antworten nach Wahrscheinlichkeiten zusammen. Da sie nicht Wissen wiedergibt, kann sie auch nicht antworten, etwas nicht zu wissen. Von einem realen Verständnis von Zusammenhängen kann nicht ausgegangen werden. Stattdessen werden Texte generiert, indem sie Daten, die sie während des Trainings gelernt hat, neu kombiniert. Diese faktisch häufig falschen Antworten werden als Halluzination bezeichnet.
Es ist daher wichtig, dass alle Informationen, die von Sprachmodellen geliefert werden, sorgfältig überprüft und durch verlässliche Quellen belegt werden, bevor sie in wissenschaftlichen Arbeiten verwendet werden. Sprachmodelle können menschliche Kommunikation imitieren, sie können aber keine Expertise ersetzen (Rouse, 2023 und Wikipedia, 2023).
- Wissensstand: Die Trainingsdaten des Modells enden im Moment im Januar 2022, so dass keine aktuellen Informationen recherchiert werden können. Dieser Aspekt der zeitlich beschränkten Trainingsdaten ist auch für andere LLM relevant. Ausnahmen sind Systeme, welche auch Zugriff auf das Internet haben und von dort Suchergebnisse mit in ihre Antworten einbeziehen können, wie z. B. Microsoft Bing.
Europarecht & DSGVO
-
Welche Bruchlinien ergeben sich zur Datenschutzgrundverordnung (DSGVO)?
Oder anders gefragt: Wie gehen die Diensteanbieter wie OpenAI mit den eingegebenen Daten um? Und inwieweit entspricht die Datenverarbeitung den Regelungen der DSGVO?
Aus datenschutzrechtlicher Sicht sind noch etliche Fragen beim Einsatz von textgenerierender KI ungeklärt. Aufgrund der mangelnden Transparenz bezüglich der Datenverarbeitung zu nicht genau definierten Zwecken der Diensteanbieter wie OpenAI haben Landesdatenschutzbeauftragte ein umfassendes Prüfverfahren gegen diesen Anbieter eingeleitet und um Beantwortung der Fragen gebeten. So lange dieses Prüfverfahren noch läuft und die Fragen nicht beantwortet wurden, fällt es schwer, eine abschließende Einschätzung abzugeben.
Persönlichkeitsrechte und Wissenschaftsfreiheit
-
Warum ist die Nutzung für Studierende freiwillig?
Letztendlich muss sich jede Person, die einen solchen Dienst nutzt (insbesondere die kostenlose Version), darüber bewusst sein, dass sämtliche Daten, die dem Dienstleister zur Verfügung gestellt werden, für eigene Geschäftszwecke genutzt werden können. Dies kann auch die (persönlichen) Anmeldedaten betreffen.
Wenn die Dienste im Rahmen von Vorlesungen/Lehrveranstaltungen (verpflichtend) genutzt werden müssen, wäre eine Registrierung mit personenbezogenen Echtdaten kritisch zu sehen. Dabei ist es unerheblich, ob es sich um dienstliche oder private Kontaktdaten handelt.
-
Worauf ist bei Verschwiegenheitsklauseln & Firmengeheimnissen zu achten?
Auch innerhalb der Wissenschaftsfreiheit gibt es Grenzen, wenn im Rahmen von Kooperationen mit Firmen oder Institutionen eine Geheimhaltung von Forschungsdaten und/oder -erkenntnissen vereinbart wurde. Solchen Verschwiegenheitsklauseln läuft es zuwider, wenn entsprechende Informationen in ein KI-Sprachmodell eingegeben werden.
Urheberrechtsgesetz
-
Wer ist Urheber, wenn mit einem KI-Tool Texte generiert werden?
- Texte von ChatGPT sind neu generiert und gemeinfrei (Salden & Leschke, 2023, S. 26).
- Das Urheberrecht für generierte Texte kann bei denjenigen liegen, die den Prompt (die Eingabe) generieren – sofern eine ausreichend hohe schöpferische Gestaltung vorliegt (Salden & Leschke, 2023, S. 25 f.).
- Es ist zu beachten, dass dabei möglicherweise unbeabsichtigt Texte plagiiert werden, wenn ChatGPT Textfolgen aus den zugrunde liegenden Quellen 1:1 reproduziert, was vor allem bei sehr spezifischen Wortfolgen passieren kann. Dies betrifft auch urheberrechtlich geschützte Texte.
- Texte von ChatGPT sind neu generiert und gemeinfrei (Salden & Leschke, 2023, S. 26).
-
Wer verfügt über das Copyright an eingegebenen oder erzeugten Daten?
- Das Urheberrecht ist an eine schöpferisch-kreative Leistung von Menschen gebunden. Daher behalten Nutzende das Urheberrecht an den eingegebenen Prompts. Davon unberührt sind Schwierigkeiten, die sich aus der Intransparenz vieler Sprachmodelle zur Weiternutzung von Prompts als Trainingsdaten ergeben.
- Es ist von Nutzenden zu prüfen, ob eingegebene Daten wie Prompts oder Texte von den KI-Anbietern für eigene Zwecke verwendet werden dürfen.
- Das Urheberrecht ist an eine schöpferisch-kreative Leistung von Menschen gebunden. Daher behalten Nutzende das Urheberrecht an den eingegebenen Prompts. Davon unberührt sind Schwierigkeiten, die sich aus der Intransparenz vieler Sprachmodelle zur Weiternutzung von Prompts als Trainingsdaten ergeben.
-
Wie sollten KI-generierte Texte zitiert bzw. gekennzeichnet werden?
- „Inwiefern Texte, die durch die Nutzung eines KI-Tools entstanden sind, im akademischen Kontext entsprechend gekennzeichnet werden müssen, hängt davon ab, ob andernfalls ein Täuschungsversuch der Prüflinge oder ein wissenschaftliches Fehlverhalten zu bejahen ist. An dieser Stelle sind die Prüfungsordnungen, Satzungen oder andere Rahmenvorschriften der Hochschulen zu beachten.“ (Salden & Leschke, 2023, S. 29)
- „Auch die Lizenz- oder Nutzungsbedingungen der jeweiligen Software können an dieser Stelle relevant sein. Sofern diese vorschreiben, dass auf die Verwendung der KI-generierten Texte hingewiesen werden muss, sind die Nutzer:innen dazu verpflichtet, den Bedingungen nachzukommen.“ (Salden & Leschke, 2023, S. 29)
- „Wie eine solche Kennzeichnung erfolgen muss, hängt regelmäßig vom Einzelfall ab. In diesem Zusammenhang kommt es maßgeblich darauf an, dass für Dritte erkennbar ist, welche Textteile in welchem Ausmaß von einer KI generiert wurden. Wurden die Texte wortwörtlich übernommen, so empfiehlt es sich, die Stelle ähnlich wie ein „klassisches“ Zitat zu behandeln. Wurde das KI-Programm hingegen als Inspirationsquelle oder Gedankenanstoß verwendet, könnte eine Hilfsmittelangabe zu Beginn oder am Ende genügen.“ (Salden & Leschke, 2023, S. 29)
- „Inwiefern Texte, die durch die Nutzung eines KI-Tools entstanden sind, im akademischen Kontext entsprechend gekennzeichnet werden müssen, hängt davon ab, ob andernfalls ein Täuschungsversuch der Prüflinge oder ein wissenschaftliches Fehlverhalten zu bejahen ist. An dieser Stelle sind die Prüfungsordnungen, Satzungen oder andere Rahmenvorschriften der Hochschulen zu beachten.“ (Salden & Leschke, 2023, S. 29)
-
Greifen Begriffe wie Plagiat und Ghostwriting, wenn Inhalte mit KI-Anwendungen erzeugt werden?
Können mithilfe von inhaltsgenerierenden KI-Anwendungen erzeugte Texte Plagiate sein?
Die Sphären von Urheberrecht, wissenschaftlich guter Praxis und Prüfungsordnungen sind nicht deckungsgleich (Salden & Leschke, 2023, S. 34). Plagiate können nur schwer bei der Rechtslage definiert werden und schon gar nicht sicher identifiziert werden.
Der Begriff des Ghostwriting greift ebenso schwierig, da zumindest die Prompts selbst generiert werden (Salden & Leschke, 2023, S. 35).
Prüfungsordnung & gute wissenschaftliche Praxis
-
Welcher Zusammenhang besteht zwischen textgenerierenden KI-Tools und wissenschaftlichem Fehlverhalten?
Wie ist mit dem Verdacht umzugehen, dass ein Text von einem Sprachmodell stammt und in seiner Darbietung einem wissenschaftlichem Fehlverhalten entspricht? Texte, die von Sprachmodellen generiert werden, lassen sich nicht sicher als Plagiat erkennen.
- „Im Rahmen der üblichen Regeln guter wissenschaftlicher Praxis wird ein Verstoß regelmäßig wie folgt definiert: „Wissenschaftliches Fehlverhalten liegt vor, wenn in einem wissenschaftserheblichen Zusammenhang bewusst oder grob fahrlässig Falschangaben gemacht werden, geistiges Eigentum anderer verletzt oder sonstwie deren Forschungstätigkeit beeinträchtigt wird.“ (HRK)“ (Salden & Leschke, 2023, S. 31)
- Hier beziehen sich die Autoren auf die „Empfehlung zum Umgang mit wissenschaftlichem Fehlverhalten in den Hochschulen“ („HRK-Empfehlung“ 1998, S. 3) sowie die „Verfahrensordnung bei Verdacht auf wissenschaftliches Fehlverhalten“ („MPG-Verfahrensordnung“ 1997, geändert 2000, S. 4).
- Hier beziehen sich die Autoren auf die „Empfehlung zum Umgang mit wissenschaftlichem Fehlverhalten in den Hochschulen“ („HRK-Empfehlung“ 1998, S. 3) sowie die „Verfahrensordnung bei Verdacht auf wissenschaftliches Fehlverhalten“ („MPG-Verfahrensordnung“ 1997, geändert 2000, S. 4).
- „Unter einer Falschangabe ist (…) das Verfälschen oder Erfinden von Daten zu verstehen, nicht hingegen das Unterlassen der Angabe, dass der Text von einer KI generiert wurde.“ (Salden & Leschke, 2023, S. 31)
- „die unmarkierte Übernahme von KI-generierten Texten von ChatGPT [verstößt] dennoch gegen die Regeln guter wissenschaftlicher Praxis“ (Salden & Leschke, 2023, S. 31), denn es soll für Dritte nachvollziehbar angegeben werden, „welcher Inhalt den eigenen Gedanken entspringt und welche Sätze fremden Quellen entnommen wurden“ (Salden & Leschke, 2023, S. 31)
- „Denkbar ist auch, dass entsprechende Regelwerke eine bestimmte Art und Weise des Einsatzes von KI-Tools mit wissenschaftlichem Verhalten für vereinbar erklären, beispielsweise, wenn ein signifikantes Maß an geistiger Eigenleistung in die Arbeit mit dem Tool eingeflossen ist.“ (Salden & Leschke, 2023, S. 32)
- „Im Rahmen der üblichen Regeln guter wissenschaftlicher Praxis wird ein Verstoß regelmäßig wie folgt definiert: „Wissenschaftliches Fehlverhalten liegt vor, wenn in einem wissenschaftserheblichen Zusammenhang bewusst oder grob fahrlässig Falschangaben gemacht werden, geistiges Eigentum anderer verletzt oder sonstwie deren Forschungstätigkeit beeinträchtigt wird.“ (HRK)“ (Salden & Leschke, 2023, S. 31)
-
Was lässt sich daraus für die Zusammenarbeit von Studierenden, Lehrenden und Fachbereichen ableiten?
- Studierende sollten darauf hingewiesen werden, dass die Verwendung inhaltsgenerierender KI-Anwendungen ohne Kennzeichnung gegen gute wissenschaftliche Praxis verstößt.
- Studierende sollten darauf hingewiesen werden, dass dies im normalen wissenschaftlichen Diskurs schnell deutlich wird und zu einer dauerhaften Schädigung der eigenen Berufschancen und der eigenen Reputation als Wissenschaftler*in führt.
- Lehrende und Fachbereiche sollten darauf hingewiesen werden, dass den Studierenden ein angemessenes und transparentes System zur Dokumentation der Verwendung inhaltsgenerierender KI-Anwendungen zur Verfügung gestellt wird, damit diese rechtssicher angewendet werden können.
- Lehrende und Fachbereiche sollten darauf hingewiesen werden, dass der Nachweis der Verwendung inhaltsgenerierender KI-Anwendungen ohne Kennzeichnung schwierig ist und ein Verdacht gut begründet werden muss.
- Wenn Studierende insbesondere bei Abschlussarbeiten angemessen betreut werden, ist sichergestellt, dass nicht nur eine Abschlussarbeit produziert wurde, sondern auch das notwendige Wissen und erforderliche Kompetenzen erworben wurden.
- Die Nutzung einer Plagiatssoftware an der Leibniz Universität ist im Rundschreiben 26/2021 geregelt. Siehe hierzu auch https://www.luis.uni-hannover.de/de/services/anwendungen/applikations-hosting/plagiatsuche
- Studierende sollten darauf hingewiesen werden, dass die Verwendung inhaltsgenerierender KI-Anwendungen ohne Kennzeichnung gegen gute wissenschaftliche Praxis verstößt.
-
Welche Rechte haben die Studierenden, wenn sie selbstverfasste textliche Ausarbeitungen als Studien- oder Prüfungsleistung abgeben?
- Von Studierenden erstellte „Prüfungsleistungen sind zumeist urheberrechtlich geschützt. In dem Moment, in dem die prüfende Person die Prüfungsarbeit in die KI-Software kopiert, findet eine Vervielfältigung statt.“ (Salden & Leschke, 2023, S. 37)
- „Die meisten Prüfungsordnungen schreiben für die Bewertung von Prüfungsleistungen vor, dass die „Bewertung durch jeden Prüfer/jede Prüferin (Einzelbewertung) [...] vorzunehmen und schriftlich zu begründen“ ist.“ (Salden & Leschke, 2023, S 36)
- „Die Bewertung muss dabei mit einer Eigenleistung verbunden sein.“ (Salden & Leschke, 2023, S. 36)
Der Anspruch auf eine nicht-automatisierte Bewertung (i. d. R. abgeleitet aus den Prüfungsordnungen „Bewertung erfolgt durch Prüfer*in“) erlaubt, die eigene Bewertung formulieren zu lassen, indem Stichworte als Prompt eingegeben werden. Name und Matrikelnummer dürfen nicht enthalten sein (Datenschutz). Es versteht sich von selbst, dass der ausgegebene Text zu prüfen ist, ob die Aussage der eigenen Bewertung entspricht.
- Von Studierenden erstellte „Prüfungsleistungen sind zumeist urheberrechtlich geschützt. In dem Moment, in dem die prüfende Person die Prüfungsarbeit in die KI-Software kopiert, findet eine Vervielfältigung statt.“ (Salden & Leschke, 2023, S. 37)
Autor*innen und Quellen
-
Wer hat die Handreichung zusammengestellt?
Zusammengestellt von der AG „KI in der Lehre“ unter Beteiligung von Melanie Bartell (Dez. 2 / SG23), Sylvia Feil (ZQS/elsa), Kati Koch (TIB), Jens Krey (Dez. 1 / SG11), Prof. Dr. Marius Lindauer (Institut für Künstliche Intelligenz), Dr. Katja Politt (Deutsches Seminar), Dr. Inske Preißler (Fakultät für Elektrotechnik und Informatik), Dr. Klaus Schwienhorst (Leibniz Language Center), Felix Schroeder (ZQS/elsa), Prof. Dr. Henning Wachsmuth (Institut für Künstliche Intelligenz).
Diese Handreichung wird im Zuge fortschreitender gesetzlicher Regelungen und Rechtsprechung zu überarbeiten sein. Noch offene Fragen können gern in der Stud.IP-Veranstaltung „LUH-Forum: Lehre“ gestellt werden. Sie enthält ein internes Forum, wo bereits Antworten gesammelt sind und weitere Fragen gestellt werden können.
-
Welche Quellen werden zitiert?
- EU-Kommission (2018) „Künstliche Intelligenz für Europa“. (Abgerufen: 16.08.2023)
- HRK-Empfehlung (1998) „Zum Umgang mit wissenschaftlichem Fehlverhalten in den Hochschulen“. (Abgerufen: 16.08.2023)
- MPG-Verfahrensordnung (1997, geändert 2000) „Verfahrensordnung bei Verdacht auf wissenschaftliches Fehlverhalten“. (Abgerufen: 16.08.2023)
- Rouse, R. (2023) “Large Language Model (LLM)”. In: Technopedia. (Abgerufen: 28.07.2023)
- Salden, P., Leschke, J. (Hrsg., 2023) „Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung“. (Abgerufen: 16.08.2023)
- ChatGPT. In: Wikipedia – Die freie Enzyklopädie. Bearbeitungsstand: 27. Juli 2023, 17:25 UTC. (Abgerufen: 28.07.2023)
- Stöcker, C. (2023) „Maschinen, die geklaute Bücher lesen“. In: Der Spiegel (Kolumne). (Abgerufen: 20.09.2023)
- EU-Kommission (2018) „Künstliche Intelligenz für Europa“. (Abgerufen: 16.08.2023)