Nein, diese Sorge ist absolut unbegründet. So eine KI, wie wir sie aus Science fiction Filmen kennen (starke KI, die ein Bewusstsein entwickelt und die Menschheit auslöschen will), gibt es nicht (und wird es wahrscheinlich nie geben).
Ich meine, es gibt schon Debatten über die „Singularität“ und Leute, die daran glauben. Viele von den Argumenten sind auch gar nicht so abwägig und „existenzielle Risiken“ der KI-Entwicklung sind wichtig und müssen diskutiert werden. Vor allem wenn es um staatliche Regulierungen geht.
Die Menschheit ist aber auch nicht doof, es gibt ja genug Experten, die das im Blick haben. Daher geht auch kaum jemand ernsthaft von diesen Weltuntergangsszenarien aus.
Ich vergleiche das gerne mit Kernspaltung; klar können wir alles eskalieren lassen und uns dann mit Atombomben wegsprengen. Machen wir aber nicht; wir nutzen Kernspaltung zur Energieerzeugung.
KI ist vielleicht etwas gefährlicher, weil es selbstständiger ist, aber im Endeffekt geht es bei den meisten Gefahren nur darum, wie wir die Technologie verwenden.
Kommentare