Gibt die KI neutrale und vorurteilsfreie Antworten?

Die Trainingsdaten des ChatGPT basieren zu einem hohen Prozentsatz auf englischsprachigen Texten. Es ist daher zu vermuten, dass allein schon aus diesem Grund ein eher westlich geprägtes Weltbild den von der KI generierten Texten zugrunde liegt. Genaue Aussagen hierzu sind nicht möglich, da das Modell für die Wissenschaft nicht einsehbar ist. Es gibt aber bereits Ansätze, eine KI mit Datensätzen in verschiedenen Sprachen und aus vielen verschiedenen Ländern zu trainieren, um ein möglichst vielfältiges Sprachmodell zu erzeugen. Problematisch ist jedoch nach wie vor, dass für das Training sehr große Datenmengen benötigt werden, die nur im Internet zu finden sind. Dadurch kommt es immer wieder vor, dass auch verbreitete Vorurteile und ethisch-moralisch zumindest fragwürdige Texte zu den Daten gehören, mit denen die KI trainiert wird. Ein Aussortieren unerwünschter Trainingsdaten ist nicht sinnvoll möglich, da viele geeignete Texte mit herausgefiltert würden. Alternativ könnten die Ausgaben des Chatbots überprüft und gefiltert werden, so dass anstößige Inhalte nicht mehr angezeigt oder durch vordefinierte Antworten ersetzt werden. Allerdings können auch durch gezielte Benutzereingaben beleidigende Textbausteine generiert werden.

Entscheidend bleibt auch hier der Filter „Mensch“. Durch nachträgliches Training kann bis zu einem gewissen Grad verhindert werden, dass problematische Inhalte ausgegeben werden. Wichtiger ist es jedoch, sich bei der Nutzung des Chatbots bewusst zu sein, dass gesprochene Texte nicht zwangsläufig wahr sein müssen und vor allem kein Indiz für die Intelligenz oder gar das Bewusstsein der KI sind.

(vgl. Umgang mit textgenerierenden KI-Systemen: Ein Handlungsleitfaden, Ministerium für Schulen und Bildung des Landes Nordrhein-Westfalen)