Automatische Sperren treffen Nutzer unerwartet
Meta räumte ein, dass ein technischer Fehler zur unrechtmäßigen Sperrung mehrerer Facebook-Gruppen führte. Das Unternehmen versprach, die Ursache schnell zu beheben. Administratoren berichteten, sie hätten automatisierte Nachrichten erhalten, in denen ihnen Regelverstöße vorgeworfen wurden. Diese Mitteilungen führten zur sofortigen Löschung ihrer Gruppen – ohne menschliche Kontrolle.
Auch Instagram-Nutzer beklagten ähnliche Probleme. Viele machten Metas KI-Moderation für die fehlerhaften Sperren verantwortlich. Meta erklärte, der Fehler betreffe ausschließlich Facebook-Gruppen und sehe keinen Hinweis auf ein größeres Systemversagen.
Millionenreichweite verliert Zugang – Meta revidiert Entscheidungen
Eine Meme-Gruppe mit über 680.000 Mitgliedern wurde wegen angeblicher Nähe zu extremen Inhalten gesperrt. Der Gründer protestierte öffentlich und Meta stellte die Gruppe daraufhin wieder her. Ein Administrator einer KI-Gruppe mit 3,5 Millionen Mitgliedern berichtete auf Reddit über eine mehrstündige Sperre. Auch sein persönliches Profil war betroffen. Meta erklärte später, die Sperrung sei durch einen Fehler im System entstanden.
Nutzer organisieren Widerstand gegen Metas Umgang
In Folge der Sperrungen wächst der öffentliche Unmut. Eine Petition mit dem Titel „Meta deaktiviert Konten grundlos ohne menschlichen Support“ erhielt fast 22.000 Unterschriften. In einem Reddit-Forum schilderten zahlreiche Nutzer ihre Erfahrungen mit plötzlichen Sperren. Einige verloren Seiten mit hohem emotionalen Wert, andere ihre geschäftlichen Plattformen. Einzelne Nutzer berichteten sogar, Meta habe ihnen Verstöße gegen Kinderschutzrichtlinien unterstellt.
Viele Betroffene kritisierten, dass sie nach der Sperrung keine Möglichkeit zum Dialog mit Meta hatten. Sie warfen der KI vor, gravierende Entscheidungen ohne menschliche Prüfung zu treffen. Die Vorwürfe wurden bisher nicht unabhängig verifiziert.
Meta verweist auf Kombination aus Mensch und Technik
Meta betonte, das Unternehmen sperre nur bei klaren Regelverstößen und lasse Einsprüche zu. Laut eigener Aussage nutze Meta sowohl KI als auch menschliche Moderation. Es gebe keine Anzeichen für einen allgemeinen Anstieg fehlerhafter Maßnahmen. Instagram erklärte, KI sei entscheidend für die Überwachung problematischer Inhalte. In komplexen Fällen treffe ein Mensch die endgültige Entscheidung.
Konten können bereits nach einem einmaligen schweren Verstoß gelöscht werden. Dazu gehören auch realistisch dargestellte oder KI-generierte Inhalte mit menschenähnlichem Aussehen. Meta beobachtet zudem ungewöhnliches Verhalten, etwa wenn Erwachsene häufig von Jugendlichen gemeldet werden. Auch verdächtige Suchanfragen können zu Einschränkungen oder Sperrungen führen.
Meta veröffentlicht regelmäßig Transparenzberichte zu seinen Maßnahmen. Zwischen Januar und März entfernte der Konzern 4,6 Millionen Inhalte wegen Kindesmissbrauchs – der niedrigste Wert seit 2021. Der nächste Bericht wird in den kommenden Monaten erwartet.