Meta hat eine Klage gegen das Unternehmen Joy Timeline HK Limited aus Hongkong eingereicht. Der Vorwurf: Die Firma habe mit ihrer App CrushAI massenhaft gegen Metas Werberichtlinien verstoßen. Die App nutzt künstliche Intelligenz, um nicht-einvernehmliche, sexualisierte Deepfakes zu erzeugen – und verbreitete entsprechende Anzeigen über Facebook und Instagram.
Strukturierter Missbrauch durch Netzwerk aus Scheinunternehmen
Laut Klageschrift baute Joy Timeline ein weit verzweigtes System aus über 170 falschen Geschäftskonten auf. Mindestens 55 Nutzer kontrollierten mehr als 135 Facebook-Seiten. Darüber wurden über 87.000 Werbeanzeigen geschaltet, die Metas Standards zu Intimität, Einwilligung und sexueller Ausbeutung verletzten. Zielmärkte waren unter anderem die USA, Großbritannien, Kanada, Deutschland und Australien.
Die Werbung enthielt Aussagen wie „Foto hochladen, Kleidung entfernen“ oder „digitale Nacktheit in Sekunden“. Nutzer konnten ein beliebiges Bild hochladen, das dann per KI bearbeitet wurde – oft ohne Wissen oder Zustimmung der abgebildeten Personen.
KI als Werkzeug für digitale Entblößung
Die App CrushAI ermöglicht es, realistische Nacktbilder auf Basis gewöhnlicher Porträts zu erstellen. In vielen Fällen geschieht dies mit Bildern von ahnungslosen Dritten. Trotz bestehender Plattformrichtlinien erschienen derartige Anzeigen wiederholt auf Meta-Plattformen. Der Konzern sieht sich nun gezwungen, juristische Konsequenzen zu ziehen.
Öffentlicher Druck wächst nach Enthüllungen
Mehrere Medienberichte hatten bereits zuvor offengelegt, wie umfangreich die Werbung für CrushAI auf Instagram und Facebook geschaltet wurde. Infolgedessen forderte der US-Senator Dick Durbin von Meta-CEO Mark Zuckerberg eine Erklärung über die Versäumnisse im Werbe- und Sicherheitssystem.
Gesetzgeber reagieren auf wachsende Deepfake-Gefahr
Prominente Persönlichkeiten wie Taylor Swift und Alexandria Ocasio-Cortez wurden öffentlich Opfer nicht-einvernehmlicher Deepfakes. Auch Schülerinnen in den USA wurden gezielt ins Visier genommen. Die US-Regierung reagierte mit dem Gesetz „Take It Down Act“, das Anbieter zur Entfernung solcher Inhalte verpflichtet.
Neue Kontrollsysteme sollen Anzeigen erkennen
Meta hat nach eigenen Angaben ein verbessertes Erkennungssystem entwickelt. Es soll verdächtige Begriffe, Emojis und Redewendungen identifizieren – selbst dann, wenn keine expliziten Bilder zu sehen sind. Die Entwicklung erfolgte in Zusammenarbeit mit Expertenteams für KI-Moderation und digitale Sicherheit.
Techniken zur Umgehung untergraben bestehende Schutzmechanismen
Betreiber derartiger Apps greifen laut Meta zunehmend auf verdeckte Taktiken zurück. Sie nutzen neutrale Bildmotive, registrieren ständig neue Domains und passen Inhalte an, um Erkennungssysteme auszutricksen. Meta beschreibt die Lage als “taktisches Wettrennen”, bei dem wirtschaftliche Interessen im Vordergrund stehen.
Plattformübergreifende Zusammenarbeit über Lantern-Initiative
Um diesen Herausforderungen zu begegnen, beteiligt sich Meta an der „Lantern“-Initiative, die von der Tech Coalition ins Leben gerufen wurde. Dort tauschen große Plattformen sicherheitsrelevante Informationen aus, um Deepfake-Anbieter besser zu identifizieren und gemeinsam gegen sexuelle Ausbeutung vorzugehen.
Reduzierung der automatisierten Moderation sorgt für Kritik
Anfang des Jahres beschränkte Meta seine automatische Inhaltsprüfung auf besonders gravierende Verstöße wie Terrorismus, Kindesmissbrauch und Betrug. Alle anderen Inhalte, auch Deepfakes, werden erst nach aktiver Nutzerbeschwerde geprüft. Experten warnen vor einer wachsenden Sicherheitslücke.
Meta fordert Entschädigung und hofft auf abschreckende Wirkung
Der Konzern verlangt im Rahmen der Klage 289.000 US-Dollar Schadenersatz. Diese Summe deckt Kosten für interne Ermittlungen, technische Abwehrmaßnahmen und regulatorische Kommunikation. Meta will mit der Klage ein klares Signal setzen, dass die gezielte Umgehung von Werbevorgaben und der Missbrauch von KI-Technologien nicht folgenlos bleibt.