KI-Texte nur schwer zu enttarnen |
Rund jeder fünfte mit KI erzeugte Text wurde von den Detektoren nicht als solcher erkannt. Die Rate nicht erkannter KI-Nutzung steigt laut der Studie weiter an, wenn der KI-Text vom Menschen noch überarbeitet wurde. Auch die Ergebnisse seien nicht einfach zu interpretieren: Manche Programme lieferten eine Prozentangabe zur Wahrscheinlichkeit, dass der Text von einem KI-Tool produziert worden sei. Konkrete Belege fehlten – so dass es Hochschulen sehr schwer haben dürften, auf der Grundlage Fehlverhalten nachzuweisen. »Anders als bei Plagiaten ist ja keine Gegenüberstellung mit dem Original möglich«, sagte Weber-Wulff.
Die Expertin kennt nach eigenen Angaben aber Fälle, in denen Lehrende Verdacht schöpften und Studierende die KI-Verwendung einräumten. Dass diese die KI-Textgeneratoren »auf breiter Front« nutzten und wohl auch häufig kein Unrechtsbewusstsein hätten – davon sei auszugehen. »Es ist ein großes Problem, dass die Universitäten dazu bisher schweigen. Wir müssten klarstellen: Was wollen wir, was erlauben wir und was nicht?«
In der Studie über Detektoren halten die Fachleute fest, dass höhere Bildungseinrichtungen nicht darauf vorbereitet gewesen seien, wie schnell und radikal sich frei zugängliche KI-Tools verbessert hätten. Die Anwendung sei nicht zwangsläufig immer unethisch.
»Wir müssen sehr stark überdenken, wie wir Leistung messen«, forderte Weber-Wulff. Das kann heißen, dass Aufgaben künftig ganz anders als bisher gestellt werden sollten. Zum Beispiel, dass es darum geht, Fehler in Antworten von KI-Tools zu finden. Weber-Wulff nennt sie »Papageien«: Sie plapperten nur nach, was sie einmal gehört hätten.
Wichtig sei daher, Studierenden die Standards akademischen Schreibens zu vermitteln, etwa den Sinn von Fußnoten. Wenn KI-Systeme genutzt würden, sei ein transparenter Umgang damit geboten. »Und man muss die volle Verantwortung für allen Mist übernehmen, der vom System produziert wurde. Keine Ausreden.«