Richtig angewendet kann künstliche Intelligenz (KI) das wissenschaftliche Arbeiten erleichtern und helfen, Aufgaben effizienter und effektiver zu lösen. Allerdings lassen sich beispielsweise mit dem KI-Chatbot ChatGPT in wenigen Sekunden auch seitenlange Facharbeiten erstellen. Die Technische Universität München (TUM) hat jetzt mindestens drei Bewerber abgelehnt, die beim Zulassungsverfahren für ein Studium an der TUM für ihren Essay KI genutzt haben sollen. Bekannt wurden die Fälle, weil die Betroffenen am Bayerischen Verwaltungsgericht dagegen klagten.
Im bisher ersten Fall wurde das Eilverfahren im Sinne der TUM entschieden. Der Student hatte sich bereits ein Jahr vorher beworben und damals einen komplett anderen Schreibstil gehabt, hieß es unter anderem als Begründung. Aber ist das schon ein Nachweis für die Nutzung von KI? Im Zweifel für den Angeklagten – das galt zumindest nicht im Eilverfahren. Der Student verzichtete auf ein aufwendiges Hauptsacheverfahren. Dabei gibt es bis heute weder Fachleute noch Software, die einen KI-generierten Text gerichtsfest von einem selbst geschriebenen unterscheiden könnten.
Insofern verwundert es nicht, dass laut Recherchen der Staatszeitung an der Nürnberger Friedrich-Alexander-Universität (FAU) die Vorwürfe gegen eine Studentin, die bei einer Übersetzung ChatGPT genutzt haben soll, mangels Beweisen zurückgezogen wurden. Die Uni geht wie die TUM recht streng gegen den Einsatz von KI vor. Prüfungen gelten ohne ausdrückliche Erlaubnis von KI-Nutzung trotz Quellenangabe als nicht bestanden.
Damit liegen die zwei großen bayerischen Unis nicht unbedingt auf einer Linie mit Fachleuten. Diese sprechen sich überwiegend für einen großzügig geregelten Umgang mit KI aus. „Der regulatorische Rahmen hinkt leider der technologischen Entwicklung deutlich hinterher“, sagt etwa Doris Weßels von der Fachhochschule Kiel. Sie beschäftigt sich seit Jahren mit den Auswirkungen von KI auf den Bildungsbereich.
Die Professorin Weßels geht sogar noch einen Schritt weiter. Sie sagt: „Das Generieren von Text mit KI-Sprachmodellen wie ChatGPT ist kein Plagiat.“ Schließlich gebe es keinen Originaltext, der entsprechende Ähnlichkeiten aufweise. Sie fordert daher dringend, das Urheberrecht zu reformieren – auch im Sinne der Studierenden. „KI-Sprachmodelle sind schließlich nicht vom Himmel gefallen.“ Ohne Regeln sei nicht klar, welche Regelverstöße ihnen unterstellt werden könnten. Darüber würden auch viele Justiziar*innen klagen.
Doch obwohl kaum ein Studierender ChatGPT nicht mindestens zur Recherche verwendet, ist der Umgang mit dem Chatbot an bayerischen Hochschulen ein großer Flickenteppich, wie eine Umfrage der BSZ ergab. Die Technische Hochschule Aschaffenburg hat beispielsweise im Februar dieses Jahres ihre Prüfungsverordnung in Bezug auf KI aktualisiert. Die Julius-Maximilians-Universität in Würzburg hingegen verzichtet bewusst auf allgemeine Vorgaben, damit die Lehrenden frei über den hochschuldidaktischen Einsatz entscheiden können.
An der Hochschule für angewandte Wissenschaften in Neu-Ulm ist ein KI-Leitfaden in Vorbereitung. Die Otto-Friedrich-Universität in Bamberg verpflichtet Studierende zwar, Hilfsmittel – zu denen auch ChatGPT gehört – anzugeben. Wie, variiert aber nach Fach und Lehrstuhl. An der Hochschule für angewandte Wissenschaften Ansbach müssen KI-Hilfsmittel verpflichtend angegeben werden – „und die Eigenleistung muss ganz klar überwiegen“, heißt es aus der Hochschulleitung. Ob dies der Fall ist, muss also im Einzelfall entschieden werden.
KI-Nutzung ist kein Plagiat – und kaum nachweisbar
Dasselbe gilt für den Nachweis von unerlaubter KI-Nutzung. „Die Identifizierung ist schwierig und auch mithilfe einer eigens entwickelten Software nur mäßig erfolgreich“, heißt es von der Technischen Hochschule Nürnberg Georg Simon Ohm. Dort setzte man zur Reduzierung von Täuschungshandlungen auf eine Änderung des „Lehr-Lern-Ökosystems“ wie zum Beispiel Curriculumswerkstätten. Die meisten anderen Hochschulen belassen es bei einer Erklärung der Studierenden, dass sie die Arbeit selbstständig verfasst haben.
Unklar ist aber beispielsweise nach wie vor, ob die KI-Übersetzungssoftware DeepL schon als KI-Nutzung deklariert werden muss. „Generell streben wir eine in Bayern möglichst einheitliche Regelung an“, heißt es aus Ansbach. Regulatorische Vorgaben durch die Staatsregierung lehnen aber alle Hochschulen ab. „Stattdessen plädieren wir dafür, dass weiterhin jeweils hochschulindividuell verschiedene Möglichkeiten des Einsatzes von Methoden der KI erprobt werden können“, betont die Interessenvertretung Hochschule Bayern.
Das bayerische Wissenschaftsministerium plant keine allgemeingültigen Vorgaben. „Nicht gekennzeichneter oder unzulässiger Einsatz von KI sind aber Täuschungsversuche – und müssen so behandelt und geahndet werden“, sagt Minister Markus Blume (CSU) der BSZ. Anders zu bewerten sei es hingegen, wenn KI lediglich als Formulierungshilfe oder Inspiration genutzt wird. „Pauschale Bewertungen“, so das Ministerium, „sind wegen der Vielfalt der Prüfungssituationen in den verschiedenen Fachbereichen nicht möglich.“
Solange die Nutzung von KI einfach und der Nachweis schwierig ist, fordert Professorin Weßels, Aufgabenstellungen an Hochschulen so zu ändern, dass sie nicht von ChatGPT & Co in kürzester Zeit gelöst werden können. „Je leistungsstärker die Tools werden, desto geringer ist die Eigenleistung, wenn die Aufgabenstellung nicht verändert wird“, gibt sie zu bedenken. Sie fordert mehr Austausch zwischen allen Beteiligten – auch mit den Studierenden. Denn aufhalten lasse sich die Entwicklung nicht mehr. „Daher ist es so wichtig, dass wir für unsere digitale Souveränität in Deutschland beziehungsweise Europa viel intensiver und mit mehr Tempo kämpfen.“ (David Lohmann)
Kommentare (1)