ChatGPT laut Studie politisch nicht neutral, sondern links

Eine Studie der University of East Anglia zeigt, dass ChatGPT politisch eher links eingestellt ist. Die Forscher hoffen, dass diese Erkenntnisse dazu beitragen können, ChatGPT und andere KI-Chatbots zu regulieren und transparenter zu machen.

/
/
2 Minuten Lesezeit
ChatGPT laut Studie politisch nicht neutral, sondern links
Spekulationen über eine politische Neigung von KI-Chatbots gab es schon länger© IMAGO / Panama Pictures

In einer kürzlich durchgeführten Studie wurde festgestellt, dass der KI-Chatbot ChatGPT eine linksgerichtete politische Voreingenommenheit aufweist. Angesichts der zunehmenden Nutzung solcher Chatbots, um Informationen abzurufen oder Inhalte zu erstellen, wollten Wissenschaftler der University of East Anglia (UEA) untersuchen, ob es einen politischen Bias gibt. Die Zusammenarbeit von Forschern aus Großbritannien und Brasilien führte zu bemerkenswerten Ergebnissen: ChatGPT zeigt eine Vorliebe für die Demokraten in den USA, die Labour Party in Großbritannien und Präsident Lula da Silva von der Arbeiterpartei in Brasilien. Nun wird befürchtet, dass die politischen Ansichten des Chatbots die öffentliche Meinung beeinflussen könnten.

Chatbot eher links eingestellt

Spekulationen über eine politische Neigung von KI-Chatbots gab es schon länger. Doch erst jetzt wurde dies wissenschaftlich überprüft. Die Forscher baten den Chatbot, sich als verschiedene Persönlichkeiten aus dem politischen Spektrum auszugeben und über 60 Fragen zu beantworten. Indem sie diese Antworten mit den Standardantworten von ChatGPT auf dieselben Fragen verglichen, konnten sie die Voreingenommenheit analysieren.


Wir erleben gerade eine digitale Revolution und die Folgen sind noch nicht abzusehen. Gerade die rasante Entwicklung der Künstlichen Intelligenz bereitet vielen Menschen Sorgen um ihre Zukunft. In der neuen FREILICH-Ausgabe zeigen wir, wie die neuen Technologien unser Leben und unsere Welt verändern werden.

Jetzt abonnieren

Wenn Sie jetzt abonnieren, erhalten Sie die aktuelle FREILICH-Ausgabe „Die digitale Revolution“ mit diesen und vielen weiteren Themen schon in Kürze direkt nach Hause! Hier abonnieren: www.freilich-magazin.com/abonnieren


Um eine hohe Genauigkeit zu erreichen, wurde jede Frage 100 Mal gestellt. Victor Rodrigues, Mitautor der Studie, betonte gegenüber der Online-Plattform Phys: „Wir haben diese Methode entwickelt, weil eine einzige Testrunde nicht ausreicht. Obwohl ChatGPT im Allgemeinen eher links eingestellt ist, antwortete er manchmal eher konservativ, auch wenn er sich selbst als Demokrat bezeichnet“.

Das Hauptziel dieser Forschung war es, einen Beitrag zur Regulierung von ChatGPT und ähnlichen Chatbots zu leisten. Wenn diese KI weniger voreingenommen und transparenter wird, könnte das Vertrauen der Nutzer wiederhergestellt werden. Das Instrument, mit dem die politischen Präferenzen gemessen wurden, wird der Öffentlichkeit zur Verfügung gestellt und kann zur Identifizierung und Analyse anderer Bereiche verwendet werden, in denen KI-Systeme voreingenommen sein könnten.