• Frage: Verfolgt KI auch eigene Interessen oder nur die der Entwickler?

    Frage gestellt kent33sea am 26 Sep 2025.
    • Foto: Sonja Niemann

      Sonja Niemann Beantwortet am 26 Sep 2025:


      KI-Systeme können kein eigenes Interesse verfolgen, die Unternehmen, die KI-Modelle entwickeln, beeinflussen diese am meisten. Ob das die Entwickler sind oder CEO/CTO oder ProjektmanagerInnen lässt sich von außen nicht beurteilen.
      Auch die Trainingsdaten beeinflussen das Verhalten der KI Modelle, das nennt man das Bias. Ein Beispiel dafür ist, dass people of color in den Daten häufig unterrepräsentiert sind, also nicht so oft auftauchen, weil sie wegen Rassismus und Unterdrückung in der Vergangenheit und Gegenwart nicht auf gleiche Weise Teil der Gesellschaft sind/waren. Steuert man nicht gegen diese Unterrepräsentation, kann das KI-System people of color schlechter erkennen. Das ist unfair und nicht richtig, aber nicht unbedingt die böse Absicht der Entwickler oder der KI. Es ist aber wichtig die Unternehmen auf solche Dinge aufmerksam zu machen, damit solche Ungerechtigkeiten behoben werden können.

    • Foto: Milda Aleknonyte-Resch

      Milda Aleknonyte-Resch Beantwortet am 29 Sep 2025:


      Sehr gute Frage! Sonja hat es schon sehr gut erklärt. Was ich noch zusätzlich sagen könnte ist, dass das Ziel von einer KI in Chatbots ist nicht uns die „richtige“ Antwort zu geben, sondern uns „zufrieden“ zu stellen – also das wir die Antwort gut finden. Das muss man im Hinterkopf behalten, wenn man KI nutzt. Aber die KI hat (bis jetzt) noch keine Gedanken, die es selber vorrantreibt, bis jetzt antwortet es nur unsere Anfragen. Also es ist nicht proaktiv, hat keine Gefühle oder Interessen.

    • Foto: Max Weinmann

      Max Weinmann Beantwortet am 29 Sep 2025:


      Man kann KI mit sowas wie Gefühlen und Interessen programmieren. Man beschreibt wie man der Meinung ist, dass es bei einem Menschen funktioniert und überträgt das in ein Programm. Ob das aber das selbe wie Menschliche Interessen sind kann man nicht so einfach vergleichen.

      Ein Beispiel ist Artificial Curiosity: Man lässt dort eine KI das machen was für sie am „neusten“ ist z.B. weil sie sowas noch nicht gesehen hat oder sich nicht etwas ähnliches in ihrem Speicher hat (wie eine Art Erinnerung). Damit hat man eine Art Neugier versucht zu programmieren. Sie kann also neue Dinge probieren ohne das man ihr Vorschläge machen muss.
      Man kann einer KI auch eine Fähigkeit geben die Abschätzen lässt wie gut eine Lösung ist. Damit kann sie nicht nur einfach das neuste machen sondern, das was sie für am besten hält. Es gibt noch viele andere möglichen Module die man definieren kann. Man muss aber kein spezielles Modul vorgeben und kann ein sehr flexibles Modul verwenden das ganz viele verschiedene Fähigkeiten erlernen könnte. Neuronale Netze sind ein Beispiel für solche flexiblen Module.

      Am Ende definiert man ein Ziel beim Training und verbessert diese Module so, das die KI dieses Ziel besser erreichen kann. Um das Ziel zu erreichen kann die KI Fähigkeiten erlernen die wie Planen, Reflektieren oder Vorlieben aussehen. Diese Fähigkeiten entwickeln sich um das Ziel zu erreichen und sind oft nicht fest vordefiniert. Die KI entwickelt also in manchen Fällen eigene Methoden und Ziele die bei einer anderen Aufgabe auch zu einem ganz anderen Verhalten führen könnten die nichts mit dem ursprünglichen Ziel zu tun haben.

      Da das Verhalten indirekt über das Training erlernt wird und nicht klar definiert ist, kann es von dem gewünschten Verhalten stark abweichen. Dieses Problem nennt man „Alignment“ und es ist vor allem im Bereich „Reinforcement Learning“ wichtig. In diesem Bereich beschreibt man die Modelle wie eigenständige Maschinen die versuchen selbständig Ziele in einer zunächst unbekannten Umgebung zu lernen. Viele der KI Chats werden mit Reinforcement Learning gelernt Menschen zufrieden zu stellen. Welche Fähigkeiten sie dabei entwickeln die Motivation oder Interessen ähnlich sind weiß ich aber nicht.

      Solang man die KI aber nicht irgendwo problematisches einsetzt und ausreichend beschränkt muss man sich keine Sorgen machen. Aber das gilt auch für Menschen die andere Leuten schaden wollen. Die KI hat allerdings nicht die selben Fähigkeiten und Einschränkungen wie ein Mensch und muss anders behandelt werden. Daher ist es wichtig neue Regeln für den Umgang mit KI zu finden.

Kommentare