Meta Community Notes: Viele hinterfragen Metas Beweggründe, Faktenchecker abzuschaffen – könnte es trotzdem eine positive Veränderung sein?
Als diesen Monat große Teile von Los Angeles in Flammen standen, verbreitete sich auch Fehlinformation rasant.
Die Herausforderung der Fehlinformation
In den sozialen Medien kursierten wilde Verschwörungstheorien über die Brände. Nutzer teilten irreführende Videos und beschuldigten unschuldige Personen fälschlicherweise, Plünderer zu sein.
Diese Ereignisse lenkten die Aufmerksamkeit erneut auf eine zentrale Frage des digitalen Zeitalters: Wie lässt sich gefährliche Fehlinformation effektiv eindämmen und korrigieren?
Mark Zuckerberg, CEO von Meta, steht seit Jahren im Mittelpunkt dieser Debatte.
Nach den Kapitol-Ausschreitungen vom 6. Januar 2021, die durch falsche Behauptungen über eine manipulierte US-Präsidentschaftswahl angeheizt wurden, verteidigte Zuckerberg Metas “branchenführendes Faktenprüfungsprogramm” vor dem Kongress.
Er betonte, dass dieses Programm auf 80 unabhängigen Faktenprüfern basiere, die Desinformation auf Facebook und Instagram eindämmen sollen.
Vier Jahre später ist dieses System jedoch keine Erfolgsgeschichte mehr.
“Faktenprüfer waren zu politisch voreingenommen und haben mehr Vertrauen zerstört als geschaffen, besonders in den USA”, erklärte Zuckerberg im Januar.
Anstelle der Faktenprüfer soll nun ein völlig anderes System treten: eine von Xs „Community Notes“ inspirierte Lösung, bei der Nutzer statt Experten über die Richtigkeit von Inhalten entscheiden.
Die Kontroverse um Community Notes
Experten und Faktenprüfer hinterfragen diese Entscheidung.
“Zuckerberg versucht eindeutig, sich an die neue US-Regierung und an Elon Musk anzubiedern”, sagte Alexios Mantzarlis, Direktor der Security, Trust and Safety Initiative an der Cornell Tech, der BBC.
Mantzarlis kritisiert die Abschaffung der Faktenprüfer scharf. Dennoch sieht er auch einen möglichen Nutzen in Community-Notes-Systemen. Solche Systeme könnten, so Mantzarlis, ein Teil der Lösung für Desinformation sein.
Das ursprüngliche „Birdwatch“-Programm von X, das 2021 startete, diente als Vorbild. Es basiert auf einem Community-Ansatz ähnlich wie Wikipedia, wo Freiwillige Inhalte prüfen und bearbeiten.
Freiwillige bewerten Korrekturhinweise unter falschen oder irreführenden Beiträgen, und besonders aktive Nutzer können selbst Hinweise verfassen. X zufolge umfasst diese Gruppe mittlerweile fast eine Million Nutzer.
Laut Mantzarlis bietet dieser Ansatz die Möglichkeit, schneller und in größerem Umfang Faktenchecks durchzuführen.
Ein weiterer Vorteil ist die Skalierbarkeit: Mit wachsender Nutzerzahl wächst auch die Zahl der potenziellen Freiwilligen.
Xs Community Notes liefern hunderte Faktenchecks pro Tag. Im Vergleich dazu schaffen Facebooks professionelle Faktenprüfer laut einer Analyse oft weniger als zehn.
Eine Untersuchung von 205 Community Notes zu Covid-Inhalten ergab, dass 98 % der Hinweise korrekt waren.
Zusätzlich senken Korrekturhinweise die Verbreitung irreführender Posts um mehr als die Hälfte. Die Wahrscheinlichkeit, dass der ursprüngliche Poster seinen Beitrag löscht, steigt um 80 %.
Vertrauen durch Algorithmen stärken
Um politische Ausgewogenheit zu gewährleisten, verlässt sich X auf einen Algorithmus, der Korrekturhinweise auswählt.
Das System berücksichtigt Beiträge, die von Nutzern mit unterschiedlichen Perspektiven als hilfreich bewertet werden. Dies soll sicherstellen, dass die Hinweise über das gesamte politische Spektrum hinweg akzeptiert werden.
Doch dieser Ansatz hat Grenzen: Über 90 % der vorgeschlagenen Community Notes werden nie verwendet.
Laut X würde das Anzeigen aller Hinweise jedoch das Vertrauen in das System untergraben, da weniger hilfreiche Beiträge eingeschlossen würden.
Fazit: Ein umstrittenes Experiment
Meta Community Notes:
Obwohl Meta weiterhin Moderatoren beschäftigt, um schädliche Inhalte wie Gewalt oder Kindesmissbrauch zu entfernen, lockert das Unternehmen die Regeln für politisch sensible Themen wie Gender und Migration.
Mark Zuckerberg räumt ein, dass dies dazu führt, weniger problematische Inhalte zu entfernen. Experten kritisieren, dass dies die gefährlichste Konsequenz von Metas neuem Ansatz sei.
Die Details zu Metas neuen Plänen sind noch unklar. Community-Notes-Systeme könnten hilfreich sein, aber viele Experten betonen, dass sie keine vollständige Alternative zu professionellen Faktenprüfern darstellen.
Professor Tom Stafford von der Universität Sheffield sagt, dass Crowdsourcing ein nützliches Element in der Moderation sein kann, jedoch nicht das einzige bleiben sollte.
Weitere Neuigkeiten zu News finden Sie hier