• Frage: Warum erzählt die KI manchmal Quatsch?

    Frage gestellt gate33nee am 26 Sep 2025.
    • Foto: Jana Boos

      Jana Boos Beantwortet am 26 Sep 2025:


      Generative KI arbeitet mit Wahrscheinlichkeiten, d.h. im Prinzip ist es eine große Rechnung, die berechnet, wie wahrscheinlich es ist, dass ein Wort auf ein anderes Wort folgt. Daher ist der Output von Sprachmodellen oft nicht 100% korrekt. KI hat kein wirkliches Verständnis von der Welt, sondern kann dieses nur nachbilden.

    • Foto: Sarah Oberbichler

      Sarah Oberbichler Beantwortet am 26 Sep 2025: last edited 29 Sep 2025 3:14


      Stellt euch vor, ihr schreibt einen Test, und es gibt eine Frage, auf die ihr nicht wirklich eine Antwort habt. Die Antwort „ich weiß es nicht“ oder „ich bin mir unsicher“ ist keine wirkliche Option, weil dafür keine Punkte vergeben werden. Also bleibt noch raten.

      Mit KI-Modellen ist es ähnlich. KI-Modelle haben von Unmengen an Daten aus dem Internet gelernt, und trotzdem gibt viele unterrepresentierte Themen. Da die Modelle aber darauf ausgelegt sind, menschenähnlichen Text zu generieren, versuchen sie Wissenslücken zu „füllen“ bzw. zu „raten“ wenn sie mit mangelnden Repräsentationen konfrontiert werden. Die Modelle sind auch so trainiert (im Nachtraining), dass der Ausdruck von Unsicherheit unterdrūckt wird.

      LLMs sind im Grunde Mustererkennungsmodelle, die Text basierend auf statistischen Beziehungen in ihren Datensätzen generieren. Sie „verstehen“ Fakten nicht im menschlichen Sinne. Wenn sie auf eine Wissenslücke stoßen, kombinieren sie vorhandene Muster auf neue Weise oder extrapolieren von Informationen, die sie haben.

      Frage ich ein Sprachmodell z.B. nach Literatur zu einem ganz speziellen Thema, und das Modell kann dazu nichts in den Trainingsdaten finden, dann kann es sein, dass Literatur „erfunden“ wird – das Modell kombiniert gelernte Muster für Autor, Titel und Verlag zu einer plausibel klingenden, aber nicht existierenden Quelle.

      Sprachmodelle müssen deshalb angeleitet werden, mit „Ich weiß es nicht“ zu antworten, wenn die Antwort nicht bekannt ist.

    • Foto: Zheng Luberg

      Zheng Luberg Beantwortet am 29 Sep 2025:


      KI erzählt manchmal Quatsch, weil sie nicht wirklich denkt wie wir Menschen.
      1.Sie arbeitet mit Wahrscheinlichkeiten: Sie sucht nach den Wörtern, die am besten zusammenpassen, auch wenn das Ergebnis falsch ist.
      2. Wenn in den Trainingsdaten Fehler oder Lücken sind, übernimmt die KI das. Deshalb muss man KI-Antworten immer kritisch prüfen.

Kommentare