Die Entscheidung von Elon Musks Plattform X, künftig KI-Chatbots zur Erstellung von Faktenchecks (Community Notes) einzusetzen, sorgt für Kritik. Der ehemalige britische Technologieminister Damian Collins warnt, dies könne „Lügen und Verschwörungstheorien verstärken“ und bedeute, dass X „Bots das Editieren von Nachrichten überlässt“.
Was X plant
Bisher wurden Community Notes von Menschen geschrieben. Nun sollen Large Language Models wie ChatGPT Entwürfe für Faktenchecks verfassen, die anschließend von Nutzern mit unterschiedlichen Meinungen geprüft und zur Veröffentlichung freigegeben werden.
X betont, das System kombiniere KI und menschliche Prüfung und ermögliche schnelle, qualitativ hochwertige Faktenchecks. Vizepräsident Keith Coleman sagte: „Wir sehen KI als Hilfe für Menschen, die am Ende entscheiden.“
Eine begleitende Studie von X, zusammen mit Forschern von MIT, Harvard und Stanford, argumentiert, dass KI-basierte Notizen schneller erstellt, weniger aufwendig und qualitativ hochwertig seien.
Kritik an den Plänen
Collins warnt, dass KI-gestützte Community Notes die Manipulation von Informationen im großen Stil ermöglichen könnten.
Auch Andy Dudfield von der britischen Faktencheck-Organisation Full Fact sieht Risiken: Menschen müssten noch mehr KI-Entwürfe prüfen, wodurch unbemerkt Inhalte vollständig automatisiert veröffentlicht werden könnten.
Samuel Stockwell vom Alan Turing Institute erklärt, KI könne helfen, die Flut an Falschinformationen zu bearbeiten, aber es brauche strenge Schutzmechanismen gegen Halluzinationen und Fehlinformationen. KI-Modelle seien oft überzeugend, auch wenn ihre Aussagen falsch sind.
Hintergrund: Trend zur Verdrängung menschlicher Faktenchecker
- Google kündigte an, Nutzer-Faktenchecks in Suchergebnissen abzuwerten, da sie „keinen signifikanten Mehrwert“ mehr böten.
- Meta will menschliche Faktenchecker in den USA abschaffen und auf ein eigenes Community-Notes-System setzen.
X kritisiert klassische Faktenchecks als zu langsam, begrenzt und wenig vertrauenswürdig und sieht die Abstimmung durch Nutzer als Vertrauensbasis.
Vertrauen bleibt Knackpunkt
Studien zeigen jedoch, dass von Menschen erstellte Community Notes als deutlich vertrauenswürdiger gelten als einfache Warnhinweise. Zudem wurde festgestellt, dass bei drei Vierteln irreführender Beiträge auf X keine korrekten Community Notes angezeigt wurden, da diese nicht genügend Stimmen von Nutzern erhielten. Diese Posts sammelten dennoch Milliarden Aufrufe.
Fazit
Während X auf KI als Mittel für schnellere Faktenchecks setzt, befürchten Experten und ehemalige Politiker, dass dies zu einer Verstärkung von Falschinformationen und Verschwörungstheorien führen könnte, wenn Schutzmechanismen und menschliche Kontrolle nicht ausreichend sind.