Politische Veränderungen in KI-Antworten dokumentiert
Politische Veränderungen bei ChatGPT: Eine aktuelle Studie der Peking-Universität zeigt, dass ChatGPT, der bekannte KI-Chatbot von OpenAI, eine zunehmende politische Rechtsneigung entwickelt. Wissenschaftler analysierten Veränderungen in den Antworten der Modelle GPT-3.5 und GPT-4 über einen längeren Zeitraum hinweg.
Die in der Fachzeitschrift Humanities and Social Science Communications veröffentlichte Untersuchung basierte auf 62 Fragen des Political Compass Tests. Jede Frage wurde über 3.000 Mal pro Modell getestet, um Veränderungen im Antwortverhalten zu erfassen. Während ChatGPT weiterhin als „libertär-links“ eingestuft wird, zeigt die Studie eine „spürbare Rechtsverschiebung“. Diese Erkenntnisse sind besonders relevant, da KI-Modelle wie ChatGPT zunehmend gesellschaftliche Debatten beeinflussen können.
Gründe für die politische Verschiebung bei ChatGPT
Die Studie knüpft an frühere Untersuchungen des MIT und des britischen Centre for Policy Studies aus dem Jahr 2024 an. Während diese eine Linksneigung in KI-Antworten feststellten, analysierten sie nicht deren langfristige Entwicklung.
Laut den Forschern der Peking-Universität könnte die beobachtete Rechtsverschiebung auf drei Hauptfaktoren zurückzuführen sein: veränderte Trainingsdaten, die steigende Anzahl von Nutzerinteraktionen und regelmäßige Modellupdates. Da ChatGPT kontinuierlich aus Nutzerfeedback lernt, könnten weltpolitische Ereignisse – wie der Russland-Ukraine-Krieg – polarisierende Anfragen verstärken und so die KI-Antworten beeinflussen.
Notwendigkeit von Überwachung und Transparenz – Politische Veränderungen bei ChatGPT
Die Forscher warnen, dass KI-Modelle wie ChatGPT verzerrte Informationen liefern und gesellschaftliche Polarisierung verstärken könnten, wenn sie nicht sorgfältig überwacht werden. Dadurch könnten sogenannte „Echokammern“ entstehen, die bestehende Überzeugungen weiter verfestigen.
Um solche Risiken zu minimieren, empfehlen die Studienautoren regelmäßige Audits und Transparenzberichte zur Sicherstellung einer ausgewogenen Antwortgestaltung.
„Regelmäßige Überprüfungen und klare Richtlinien sind notwendig, um den verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten“, betonen die Forscher. Solche Maßnahmen seien entscheidend, um zu verhindern, dass KI unbeabsichtigt gesellschaftliche Spannungen verschärft.