ChatGPT könne zum Beispiel dabei helfen, Themen einzugrenzen oder Texte zusammenzufassen, sagt Gimpel. Im Hörsaal soll dann diskutiert werden, wie man mit den Ergebnissen umgehen sollte und wo die Grenzen der Software liegen. Auf dem Veranstaltungsplan seht zudem ein Seminar zu ethischen und sozialen Aspekten des Einsatzes sogenannter generativer KI – darunter versteht man ganz allgemein Programme, die nicht nur Texte, sondern auch Bilder kreieren. Schließlich soll ChatGPT Studierende auch beim Schreiben von Computerprogrammen unterstützen. „Wenn es um Standard-Probleme geht bin ich damit dreimal so effizient“, berichtet der Doktorand Reich.
Mehr mündliche Prüfungen
In der Fachwelt ist unumstritten, dass KI-Systeme künftig in vielen Berufen zum Alltag gehören werden. Daher sei es richtig, sie in das Studium zu integrieren, sagt Korinna Huber, Prorektorin für Studium und Lehre an der Uni Hohenheim. Allerdings seien dabei noch einige Fragen offen. So sei noch unklar, wie unbeaufsichtigte schriftliche Arbeiten künftig bewertet werden sollen – etwa Haus- und Abschlussarbeiten, an denen auch ein Chatbot mitgeschrieben haben könnte. „Wir wissen aber auch bisher nicht, ob vielleicht die Eltern oder andere Leute dabei geholfen haben“, fügt Huber hinzu. Um die Fähigkeiten und Kenntnisse der Studierenden besser beurteilen zu können, würden mündliche Prüfungen künftig vermutlich wieder einen höheren Stellenwert bekommen, schätzt die Prorektorin.
Bei schriftlichen Arbeiten könnten zudem strengere Standards angelegt werden. Allerdings brauche man in beiden Fällen mehr Dozentinnen und Dozenten zur Prüfung und Betreuung. Dass eine KI künftig die schriftlichen Arbeiten korrigieren und so das Personal entlasten könnte, hält Huber derzeit für Zukunftsmusik. Bis zum Beginn des Wintersemesters im Herbst will die Uni eine offizielle Rahmenregelung für Prüfungen in den Zeiten von ChatGPT ausarbeiten. Nötig sei aber eine übergreifende Lösung für alle Hochschulen, so Huber.
Die Prorektorin fragt sich zugleich, wie sich solche Programme auf das Lernverhalten junger Menschen auswirken. Viele hätten jetzt schon Probleme mit dem Schreiben von Texten. Und wer etwa die Fachliteratur von einer Software zusammenfassen lasse, tue sich schwerer, den Inhalt zu verstehen. „Die Künstliche Intelligenz weiß nicht, was wahr und was falsch ist. Unsere Aufgabe als Universität ist eigentlich, den Studierenden genau das beizubringen – und die Fähigkeit, das Wahre auch zu beweisen“, so Huber.