Grok, der von Elon Musks xAI entwickelte Chatbot, zeigte im Zusammenhang mit dem zwölftägigen Krieg zwischen Israel und Iran gravierende Schwächen. Forschende des Digital Forensic Research Lab (DFRLab) analysierten 130.000 Beiträge des Chatbots auf X. Dabei entdeckten sie zahlreiche ungenaue und widersprüchliche Aussagen.
Ein Drittel der Antworten versuchte, Fehlinformationen zu prüfen, scheiterte jedoch oft. Grok hatte Probleme, bestätigte Fakten zu erkennen, Fälschungen zu entlarven und unbelegte Behauptungen zu vermeiden. Das DFRLab betonte, wie wichtig verlässliche Informationen durch KI-Tools seien – besonders in Krisenzeiten.
Falsche Videos als echte Aufnahmen deklariert
Grok stufte zwei KI-generierte Videos fälschlich als echte Aufnahmen ein. Ein Clip zeigte angeblich Schäden am Flughafen Ben Gurion nach einem iranischen Angriff. Grok erklärte zunächst, das Video zeige Schäden durch einen Huthi-Angriff vom 4. Mai. Wenige Minuten später behauptete der Chatbot, es handle sich um den Flughafen Mehrabad in Teheran nach einem israelischen Luftschlag.
Solche Widersprüche untergraben das Vertrauen in KI-gestützte Informationsverarbeitung – besonders bei aktuellen Krisen, in denen schnelle, korrekte Einordnung gefragt ist.
Chatbots verstärken irreführende Behauptungen
Während des Kriegs kursierten zahlreiche Falschmeldungen online. Eine davon: China habe militärische Unterstützung nach Iran geschickt. Grok und Perplexity verbreiteten diese Geschichte – basierend auf falsch interpretierten Flugdaten.
Die Plattform Flightradar24 war die Quelle. Medien griffen sie auf, Chatbots verstärkten die Falschmeldung. DFRLab-Experten erklärten, KI-Modelle stützten sich stark auf Medienberichte, könnten aber mit der Geschwindigkeit globaler Ereignisse nicht mithalten.
Sie warnen: Wenn Nutzer sich auf Chatbots verlassen, um Konflikte zu verstehen, können deren Schwächen die öffentliche Meinung verzerren.