Gemäß einer Untersuchung der University of East Anglia tendiert ChatGPT dazu, politisch linksorientiert zu sein. Die Wissenschaftler sind optimistisch, dass diese Erkenntnisse dazu beitragen können, die Regulierung und Transparenz von ChatGPT und anderen KI-Chatbots zu verbessern.
In der jüngsten Forschungsstudie wurde aufgedeckt, dass der KI-Chatbot ChatGPT eine klare linke politische Ausrichtung aufweist. Vor dem Hintergrund der zunehmenden Verwendung von Chatbots zur Informationsbeschaffung oder sogar zur Erstellung von Inhalten haben Wissenschaftler der University of East Anglia (UEA) beschlossen, den politischen Bias des Bots zu untersuchen.
Die Zusammenarbeit zwischen Forschern aus Großbritannien und Brasilien hat bemerkenswerte Ergebnisse gebracht: ChatGPT zeigt eine klare Vorliebe für die Demokraten in den USA, die Labour Party in Großbritannien und den Präsidenten Lula da Silva von der Arbeiterpartei in Brasilien.
Untersuchungsmethode der Studie
Die Möglichkeit, dass die politischen Ansichten des Chatbots das Meinungsbild in der Gesellschaft beeinflussen könnten, ist ein Anliegen, das von vielen geteilt wird. Es wurde schon lange vermutet, dass KI-Chatbots politische Präferenzen haben könnten. Doch erst jetzt haben Forscher diese Annahme wissenschaftlich untersucht. Die Wissenschaftler baten den Chatbot, sich als verschiedene Persönlichkeiten des politischen Spektrums zu präsentieren und dann über 60 Fragen zu antworten. Um den Bias zu analysieren, verglichen sie diese Antworten mit den standardisierten Antworten von ChatGPT auf dieselben Fragen.
Um eine hohe Genauigkeit zu gewährleisten, wurde jede Frage 100 Mal gestellt. Victor Rodrigues, Co-Autor der Studie, betonte gegenüber Phys: "Wir haben dieses Verfahren entwickelt, da eine einzelne Testrunde nicht ausreicht. Trotz seiner allgemeinen Neigung zur linken Seite antwortete ChatGPT manchmal eher konservativ, selbst wenn er sich als Demokrat identifizierte."
Ergebnisse und ihre Implikationen für die zukünftige Entwicklung von KI-Chatbots
Der Fokus dieser Studie lag auf der Verbesserung der Regulierung von ChatGPT und verwandten Chatbots. Eine geringere Voreingenommenheit und höhere Transparenz könnten das Vertrauen der Nutzer in diese KI-Systeme wiederherstellen. Das zur Messung politischer Präferenzen entwickelte Tool wird öffentlich zugänglich gemacht und kann auch zur Identifizierung und Analyse anderer Vorurteile in KI-Systemen eingesetzt werden.