An Universitäten weltweit setzen Lehrende zunehmend KI-gestützte Werkzeuge ein, um zu erkennen, ob studentische Arbeiten von Sprachmodellen verfasst wurden. Was als Maßnahme zur akademischen Integrität gedacht ist, entpuppt sich bei genauerer Betrachtung als systematische Benachteiligung: Studierende, die Englisch als Fremdsprache nutzen, werden signifikant häufiger fälschlicherweise als KI-Nutzer identifiziert. Die KI wird zum digitalen Grenzbeamten, der anhand sprachlicher Muster über Zugehörigkeit entscheidet.
Der Bias in der Erkennung
Die Erklärung ist technischer Natur: KI-Detektoren suchen nach Mustern, die typisch für maschinell generierte Texte sind – etwa gleichmäßige Satzlängen, vorhersagbare Wortwahl und geringe stilistische Variation. Genau diese Merkmale finden sich auch in Texten von Menschen, die in einer Fremdsprache schreiben. Wer sich an erlernte grammatische Strukturen hält und auf ein begrenztes Vokabular zurückgreift, produziert unwillkürlich Texte, die Detektoren als maschinell einstufen. Die Falsch-Positiv-Rate bei Nicht-Muttersprachlern liegt um ein Vielfaches höher.
Konsequenzen und Handlungsbedarf
Die Folgen reichen von Notenabzügen über Disziplinarverfahren bis zum Verlust von Stipendien. Für internationale Studierende, deren Aufenthaltsstatus oft an den akademischen Erfolg geknüpft ist, kann ein falsch-positives Ergebnis existenzielle Auswirkungen haben. Hochschulen müssen daher ihre Abhängigkeit von automatisierten Detektionswerkzeugen kritisch hinterfragen und alternative Prüfungsformate entwickeln, die akademische Integrität sichern, ohne bestimmte Gruppen zu diskriminieren.