Bildung Plagiatsforscherin: Detektoren für KI-Texte keine Lösung

Es gibt Detektoren-Software, die KI-Verwendung bei Textarbeiten erkennen soll - doch sie ist nicht zuverlässig. Foto: Frank Rumpenhorst/dpa

«ChatGPT, schreib mir eine Bachelorarbeit» - seit dem neuen Hype um KI sind solche Anfragen möglich. Ob Mensch oder Maschine die Arbeit geschrieben hat, können Unis bislang nur schwer herausfinden.

 
Schließen

Diesen Artikel teilen

Berlin - Ein nicht deklarierter Einsatz von KI-Textgeneratoren wie ChatGPT zum Beispiel in Abschlussarbeiten bleibt aus Expertensicht vorerst schwer nachweisbar. "Die Hoffnung, dass es eine einfache Softwarelösung zum Enttarnen von KI-Texten gibt, wird sich nicht erfüllen", sagte die Berliner Plagiatsforscherin Debora Weber-Wulff (Hochschule für Technik und Wirtschaft) der Deutschen Presse-Agentur.

"Es gibt zwar sehr viel angebliche Detektoren-Software, aber sie tut nicht das, was sie soll." Manche der Hersteller hätten Mängel auch selbst eingeräumt und auf Grenzen der Verlässlichkeit hingewiesen.

ChatGPT ist ein Chatbot, der auf Nutzerbefehle hin Texte auf dem Sprachniveau eines Menschen formulieren und etwa Informationen zusammenfassen kann. Die Veröffentlichung Ende 2022 löste einen Hype um Künstliche Intelligenz (KI) aus - und im Hochschulbereich auch Sorgen vor unkritischer Verwendung oder gar Täuschung durch Studierende. Mittlerweile gibt es auch Programme, mit denen man so erstellten Texten auf die Schliche kommen soll.

Weber-Wulff hat an einer Studie mitgearbeitet, für die 14 angebliche KI-Detektoren getestet wurden. Demnach lieferten diese Tools keine verlässlichen Ergebnisse, wenn es um die Frage ging, ob ein Mensch oder eine Maschine einen Text verfasst hat. Davon berichtete das Forschungsteam Ende 2023 im "International Journal for Educational Integrity". Die Studie macht als Kernproblem aus, dass rund jeder fünfte mit KI erzeugte Text nicht als solcher erkannt wurde.

Autor

Bilder