Gründe für Fehler in KI-Sprachmodellen, Auswirkungen auf den produktiven Einsatz

KI-Entwickler können die Ursachen und Hintergründe für Fehler in Sprachmodellen nicht wegskalieren. Nutzer müssen die Fehlbarkeit in ihren Anwendungen bedenken.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 8 Kommentare lesen
, KI Midjourney  Bearbeitung c’t

(Bild: KI Midjourney | Bearbeitung c’t)

Lesezeit: 13 Min.
Inhaltsverzeichnis
Mehr zum Thema Künstliche Intelligenz (KI)

Seit November 2022 ist ChatGPT nun auf dem Markt. Die anfängliche Euphorie ist bei manchem Nutzer inzwischen einer Ernüchterung gewichen. So ging die Zahl der monatlichen Zugriffe auf die Webseite chat.openai.com laut dem Analysedienst Similarweb von Mai bis Juli 2023 von 1,8 auf 1,5 Milliarden zurück – ein Verlust von 17 Prozent.

Ein Grund dafür könnte die hohe Fehlerquote der Sprachmodelle sein. Jeder kennt Anekdoten, in denen die KI auf einen Prompt klug antwortet und plötzlich völlig daneben haut, etwa falsche Gerichtsurteile erfindet oder bei simpelsten Zählaufgaben versagt. Aufgrund der Eloquenz der Maschinen sind diese Fehler jedoch schwerer zu erkennen, als wenn man einem Menschen zuhört, der auch sprachlich ins Schleudern gerät, wenn er mit seinem Latein am Ende ist.

Diese plötzlichen, unerwarteten Fehler sind keine Ausreißer oder Kinderkrankheiten, die Entwickler mit mehr Training, mehr Daten und schnelleren Computern beheben kann. Sie sind vielmehr ein Grundproblem von Sprachmodellen, für das keine Lösung in Sicht ist. Denn anders als Menschen können Maschinen zwar sehr gut Muster erkennen, wenn sie mit vielen Daten gefüttert werden. Sie können aber nur schlecht abstrahieren und einzelne Beobachtungen verallgemeinern.