Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Der Grund ist eine Falschaussage von ChatGPT über einen norwegischen Mann. Die österreichische Gruppe Noyb wirft OpenAI vor, gegen europäische Datenschutzgesetze zu verstoßen, indem die KI falsche persönliche Informationen bereitstellte.
KI-Fehlinformation führt zu rechtlichen Konsequenzen
Arve Hjalmar Holmen fragte ChatGPT nach Informationen über sich selbst. Die KI gab eine vollständig erfundene Antwort, in der behauptet wurde, er sei wegen des Mordes an zwei seiner Söhne und des versuchten Mordes an einem dritten verurteilt worden. Laut der KI habe er eine Haftstrafe von 21 Jahren erhalten.
Obwohl das Verbrechen nicht existiert, enthielt die Antwort korrekte persönliche Details. ChatGPT nannte seine Heimatstadt sowie die Anzahl und das Geschlecht seiner Kinder richtig. Solche KI-Fehlinformationen, auch als Halluzinationen bekannt, entstehen oft durch fehlerhafte oder voreingenommene Trainingsdaten.
Noyb hat einen Screenshot der ChatGPT-Antwort in seiner Beschwerde beigefügt. Das genaue Datum der Interaktion wurde jedoch entfernt. OpenAI hat inzwischen sein Modell aktualisiert. Wenn ChatGPT nun nach Holmen gefragt wird, gibt es die falsche Mordanschuldigung nicht mehr wieder.
Trotz dieser Anpassung warnt Noyb, dass die Fehlinformation weiterhin in OpenAIs System existieren könnte. Die Organisation vermutet, dass ChatGPT Nutzerdaten speichert und in zukünftige Modelltrainings einfließen lässt. Holmen kann nicht überprüfen, ob die falsche Behauptung dauerhaft gelöscht wurde.
Datenschutzorganisation fordert Maßnahmen gegen OpenAI
Noyb hat die offizielle Beschwerde bei der norwegischen Datenschutzbehörde (Datatilsynet) eingereicht. Die Organisation argumentiert, dass OpenAI gegen Artikel 5(1)(d) der GDPR verstoßen hat, der Unternehmen verpflichtet, personenbezogene Daten korrekt und aktuell zu halten.
Noyb fordert, dass OpenAI die falschen Daten vollständig löscht. Zudem soll das KI-Modell so angepasst werden, dass ähnliche Fehler in Zukunft verhindert werden. Darüber hinaus verlangt die Organisation eine Verwaltungsstrafe, um sicherzustellen, dass OpenAI die Datenschutzgesetze einhält.
Holmen äußerte große Besorgnis über den Vorfall. Er fürchtet, dass Menschen der falschen Behauptung glauben könnten, selbst wenn OpenAI sie korrigiert. „Manche denken, wo Rauch ist, ist auch Feuer. Das beunruhigt mich am meisten,“ sagte er.
Die Noyb-Anwältin Kleanthi Sardeli kritisierte, dass KI-Unternehmen Datenschutzgesetze ignorieren. „Eine einfache Erklärung, dass man sich nicht an das Gesetz hält, macht das Gesetz nicht ungültig. OpenAI muss sich an die GDPR halten,“ erklärte sie. Sardeli warnte zudem, dass ungeprüfte KI-Halluzinationen ernsthafte Rufschädigungen verursachen können.
Dieser Fall könnte ein wichtiger Präzedenzfall für den Umgang mit personenbezogenen Daten in der KI-Branche werden. OpenAI hat bislang nicht auf die Beschwerde reagiert.