• Frage: Wie wird KI (Chatgpt) programmiert?

    Frage gestellt keen33vet am 25 Sep 2025.
    • Foto: Lina Felsner

      Lina Felsner Beantwortet am 25 Sep 2025:


      Dazu wird meistens sie Programmiersprache Python benutz. Dann kommt es darauf an ob man nur ein KI model anwenden möchte oder es von grund auf programmieren will.
      Im Fall eins kann man sich ein Model herunterladen und dann einfach anwenden. Im Fall zwei muss man alle Komponenten in dem deep learning Netzwerk definieren um ein Model zu haben was man dann trainieren kann.

    • Foto: Sonja Niemann

      Sonja Niemann Beantwortet am 25 Sep 2025:


      Generative KI wie ChatGPT von 0 auf zu programmieren wird meistens nur von großen Firmen gemacht und kostet sehr viel Geld. In Groben Schritten sieht das so aus:

      Eine KI ist quasi ein Algorithmus, der programmiert wird. Bei generativer KI wie ChatGPT haben die Algorithmen die Aufgabe, eine Antwort auf eine Frage zu erstellen. Das heißt, dass der Programmcode einen Satz bekommt und die Antwort berechnet, die am wahrscheinlichsten ist. Ein Beispiel: Auf die Frage „Wie gehts es dir?“ Antworten die meisten „Gut, und dir?“, sowas lernt die KI mithilfe von Algorithmen, die Wahrscheinlichkeiten berechnen.

      Um das zu programmieren, nutzt man eine Programmierumgebung, in der man Programmcode schreiben kann. Die Programmierumgebung hilft ein bisschen, wie z.B. Word, kleinere Fehler in der Rechtschreibung oder bei den Satzzeichen direkt zu korrigieren und übersetzt dann den Programmcode in Aktionen, damit der Computer weiß, was er machen soll.

      Das muss man sich nicht alles neu ausdenken, die Algorithmen sind bekannt und werden nur manchmal verändert. Für generative KI wie ChatGPT hat z.B. jemand eine neue Funktion programmiert, bei der der Kontext und die Aufmerksamkeit mathematisch berechnet werden kann. Auch hier ein Beispiel: Wenn ich erzähle: „Es regnet schon den ganzen Tag, das finde ich doof. Wass könnte ich heute machen?“ Kann ChatGPT durch Kontext und Aufmerksamkeit jetzt was Passendes vorschlagen, also „Filmabend oder etwas kochen“ anstatt etwas weniger passendes wie „Ein schöner Spaziergang“.

    • Foto: Max Weinmann

      Max Weinmann Beantwortet am 29 Sep 2025:


      Wie genau ChatGPT programmiert ist wissen wir nicht, da es nicht veröffentlich ist.
      Ich nehme aber an, das es ein sogenannter Generative Pretrained Transformer ist (kurz GPT) was folgendes bedeutet:

      – Generative bedeutet, dass es Tokens (z.B. Text) generiert.
      Tokens sind {Bausteine} wie Wörter um Sätze zu bilden wie hier:
      {Davon}{ }{wird}{ }{einer}{ }{nach}{ }{dem}{ }{anderem}{ }{generiert}{!}

      – Pretrained bedeutet, dass das Model das verwendet wird davor mit Daten trainiert wurde. Das sind meistens Zwei verschiedene Arten von Training (self-supervised training und RLHF) die Ich gleich noch genauer erkläre.

      – Transformer ist eine bestimmte Art Model: Es nimmt z.B. die letzten 1000 Bausteine auf und berechnet dann die Wahrscheinlichkeit für jeden möglichen nächsten Baustein (z.B. jedes mögliche Wort oder Satzzeichen). Dann wählt es zufällig einen der Bausteine entsprechend der Wahrscheinlichkeit aus. Danach wiederholt es das immer wieder mit dem neuen Baustein bis ein ganz langer Text entsteht. Wenn dann z.B. der Baustand {STOP} kommt wird das model gestoppt und wartet auf deine Eingabe im Chat. Die wird dann auch in Bausteine verwandelt und das model generiert mit deinem Text weiter als hätte es ihn selbst geschrieben und würde ein Selbstgespräch führen. In echt können Modelle manchmal 10000 oder Millionen solcher Bausteine aufnehmen um den nächsten Baustein zu bestimmen.

      Programmieren tut man solche Modelle nicht direkt sondern man trainiert sie. Das heißt bei Transformern, dass man ihnen eine folge von Bausteinen zeigt und beschreibt was man als nächsten Baustein haben will. Man bewertet dann wie gut die Bausteine von dem Model zu dem gewünschten passen und verbessert es indem man sich anschaut, welche der Einstellungen (Parameter) im Model man ändern könnte damit das Ergebnis näher am gewünschten Baustein ist. Das funktioniert alles automatisch mit einem Algorithmus der sich „Backpropagation“ nennt.

      Jetzt zu den verschiedenen Trainingsvarianten:
      – Beim self-supervised training benutzt man texte die es schon gibt wie die auf Büchern oder Internetseiten. Dann muss man nicht bei jedem Beispiel von Hand sagen was der nächste Baustein ist. Man gibt also die ersten 100 Wörter von einem Buch und fragt dann nach dem 101. Wort. Gibt die 2.-101.Wort und fragt nach dem 102. Wort und so weiter. Das ganze kann man gleichzeitig machen um das Training zu beschleunigen. Das Model lernt also Fähigkeiten mit denen die Wortfolgen aus den Trainingsdaten wahrscheinlicher werden. Dazu kann zum Beispiel Grammatik und komplexere Regeln gehören wie der rote Faden einer Geschichte.
      Wenn man das Modell dann verwenden würde wäre der Text den es generiert einfach nur eine Mischung aus all den Wortfolgen der Trainingsdaten und würde schnell auch keinen Sinn ergeben. Dazu benutzt man den nächsten Schritt

      – RLHF ist eine Methode bei dem man Menschen eine Antwort bewerten lässt. Hier zeigt man Menschen entweder mehrere Antworten und lässt sie auswählen oder nur eine Antwort die sie z.B. nach Nützlichkeit bewerten können. Mit der Information kann man dann die Einstellungen im Modell versuchen so zu ändern, dass nützliche Antworten wahrscheinlicher sind. Wenn du eine Antwort im Chat bewertest wird das wahrscheinlich auch dafür verwendet.

      Man weiß also nicht genau was das Model macht sondern nur, dass es bei manchen Aufgaben aus dem Training besser wird (die gewünschte Antwort wahrscheinlicher wird).

      Ich hoffe das hat dir geholfen ein bisschen besser zu verstehen wie solche KIs funktionieren. Es gibt natürlich noch ganz viele andere KIs und Details die über die Beschreibung von mir hinausgehen.
      Wenn dich das interessiert findest du gut Videos auf Youtube. Eine sehr umfangreiche Erklärung gibt es hier https://www.3blue1brown.com/topics/neural-networks unter LLMs (Große Sprach Modelle).

      Viele Liebe Grüße,
      Max

Kommentare