Generative KI arbeitet mit Wahrscheinlichkeiten, d.h. im Prinzip ist es eine große Rechnung, die berechnet, wie wahrscheinlich es ist, dass ein Wort auf ein anderes Wort folgt. Daher ist der Output von Sprachmodellen oft nicht 100% korrekt. KI hat kein wirkliches Verständnis von der Welt, sondern kann dieses nur nachbilden.
Ich habe einen dreijährigen Sohn, der ganz ganz viele Fragen stellt und sich ungern mit einem „Ich weiß es nicht“ zufrieden gibt, Dann erwische ich mich selbst manchmal, dass ich versuche, etwas zu erklären, was ich selbst nicht wirklich weiß (z.B. „Warum gibt es Vögel“ oder „Was denken Tiere“). Und meine Antworten sind dann eigentlich Quatsch. Mit der KI ist es ein bisschen ähnlich. KI-Modelle haben von Unmengen an Daten aus dem Internet gelernt, und trotzdem gibt es Fragen, auf die es in den Trainingsdaten keine Antwort gibt. Da die Modelle aber so trainiert wurden, dass sie auf Fragen antworten, geben sie eine Antwort, auch wenn sie die Antwort nicht kennen. Frage ich ein Sprachmodell z.B. mir Literatur zu einem ganz speziellen Thema zu geben, und das Modell kann dazu aber nichts in den Trainingsdaten finden (oder auch nicht in der Websuche), dann kann es sein, dass Literatur „erfunden“ wird, die genau zum Thema passt.
Sprachmodelle müssen deshalb angeleitet werden, mit „Ich weiß es nicht“ zu antworten, wenn die Antwort nicht bekannt ist. Damit wird dem Modell erlaubt zu antworten und gleichzeitig Unwissenheit auszudrücken.
Kommentare