“Freiwillige” KI-Funktion bleibt dauerhaft in der App aktiv
WhatsApp erklärt, die neue KI-Chatfunktion sei freiwillig – obwohl sie nicht entfernt werden kann.
Das Meta-AI-Logo, ein blauer Kreis mit farbigen Akzenten, bleibt dauerhaft unten rechts im Chatbereich sichtbar.
Ein Klick darauf startet einen digitalen Assistenten, der Fragen der Nutzer mit KI-generierten Antworten beantwortet.
Viele Nutzer zeigen sich verärgert, weil sie diese Funktion weder löschen noch deaktivieren können.
Bereits bei Microsofts „Recall“-Tool sorgte ein ähnliches Vorgehen für massive Nutzerbeschwerden.
WhatsApp erklärt, man wolle Optionen bieten und achte auf Rückmeldungen der Nutzer.
Meta vergleicht die KI-Funktion mit fest integrierten Bereichen wie „Status“ oder „Kanäle“ in der App.
Zeitgleich gab Meta neue Funktionen bekannt, die Jugendliche auf Instagram besser schützen sollen.
In den USA testet Meta KI-Systeme, die falsche Altersangaben jugendlicher Nutzer erkennen sollen.
Nur ausgewählte Nutzer sehen die Funktion bisher
Nicht jeder kann die neue KI-Funktion sehen – Meta aktiviert sie zunächst nur in bestimmten Ländern.
Selbst in einem Land kann der Rollout unterschiedlich verlaufen – manche sehen sie, andere nicht.
Zusätzlich erscheint oben eine Suchleiste mit der Aufforderung „Meta AI fragen oder durchsuchen“.
Diese Funktion findet sich auch in Instagram und Facebook Messenger, ebenfalls Dienste von Meta.
Die Chat-KI basiert auf Metas eigenem Sprachmodell Llama 4 und gehört zu dessen KI-Plattform.
Vor dem ersten Einsatz erscheint ein langer Hinweistext, der die Freiwilligkeit der Funktion betont.
Die KI kann unter anderem Fragen beantworten, etwa zum Wetter, mit schnellen und detaillierten Antworten.
Allerdings liefern die Ergebnisse nicht immer passende Informationen – etwa mit Verwechslungen bei Orten.
Datenschutzbedenken und Kritik aus der Fachwelt
Nutzer aus Europa äußern ihren Unmut auf Plattformen wie X, Bluesky oder Reddit.
Auch Kolumnistin Polly Hudson kritisierte öffentlich, dass die Funktion nicht abschaltbar sei.
KI-Berater Dr. Kris Shrishak warnt davor, Meta missbrauche seine Marktposition für Datenexperimente.
Er kritisiert, Nutzer würden ohne klare Zustimmung als Testpersonen für Künstliche Intelligenz benutzt.
Seiner Ansicht nach sollte niemand gezwungen werden, mit KI-Systemen zu interagieren.
Shrishak betont, dass Metas KI auf Daten basiert, die unter problematischen Bedingungen gesammelt wurden.
Dazu zählen unter anderem Webdaten und Inhalte aus urheberrechtlich geschützten Büchern.
Ein Bericht enthüllte, dass Meta möglicherweise Millionen Bücher über Library Genesis bezogen hat.
Autorenverbände weltweit fordern rechtliche Schritte gegen diese Praxis.
Der Konzern steht bereits wegen Urheberrechtsverletzungen durch KI-Training vor Gericht.
Meta verweigerte auf Anfrage eine Stellungnahme zu den Vorwürfen.
Experten mahnen: KI darf keine Datenfalle werden
Beim ersten Start von Meta AI informiert WhatsApp, dass die KI nur direkt an sie gesendete Nachrichten einsehen kann.
Meta betont, dass private Chats weiterhin durch Ende-zu-Ende-Verschlüsselung geschützt bleiben.
Die britische Datenschutzaufsicht erklärte, sie beobachte Metas Umgang mit persönlichen Nutzerdaten genau.
Sie betonte, Vertrauen sei essenziell, wenn persönliche Informationen in KI-Systemen verwendet werden.
Unternehmen müssten sämtliche Datenschutzauflagen erfüllen – insbesondere beim Umgang mit Kindern.
Dr. Shrishak weist darauf hin: Wer mit Meta AI schreibt, gibt Daten direkt an Meta, nicht an Freunde weiter.
Er warnt davor, persönliche oder vertrauliche Informationen über die KI-Funktion zu teilen.
Auch Meta weist darauf hin, man solle nichts eingeben, was nicht gespeichert oder analysiert werden darf.