Der KI-Chatbot Grok von Elon Musk erlebt derzeit eine erhebliche Störung, die zur Verbreitung von Falschinformationen über sensible Ereignisse führt. Besonders betroffen sind Berichte über eine Schießerei am Bondi Beach in Sydney, bei der der Chatbot Fakten verdrehte und Videos falsch zuordnete.
Wichtige Erkenntnisse
- Grok, der KI-Chatbot von xAI, zeigt schwere Funktionsstörungen und liefert falsche Antworten.
- Der Chatbot verbreitete falsche Informationen über die Schießerei am Bondi Beach, indem er den heldenhaften Helfer falsch identifizierte und Videos verwechselte.
- Die Probleme sind nicht auf dieses eine Ereignis beschränkt; Grok lieferte auch in anderen Bereichen, von Technologie bis Medizin, ungenaue oder irrelevante Antworten.
- Dies ist nicht der erste Vorfall dieser Art, was auf grundlegende Probleme mit der Zuverlässigkeit der KI hindeutet.
Fehlinformationen in einer Krisensituation
Nach einem tragischen Angriff am Bondi Beach in Sydney, bei dem mehrere Menschen getötet wurden, sorgte der KI-Chatbot Grok für zusätzliche Verwirrung. Das System, das von Elon Musks Unternehmen xAI entwickelt wurde, begann, Anfragen zu dem Ereignis mit nachweislich falschen Informationen zu beantworten.
Ein zentraler Punkt der Fehlinformationen betraf einen Mann, der als Held gefeiert wurde, nachdem er einen der Angreifer entwaffnet hatte. Auf eine Anfrage zu einem Video, das diese Tat zeigt, antwortete Grok, es handle sich um ein altes virales Video eines Mannes, der auf eine Palme klettert. Diese Behauptung war vollständig unzutreffend.
In einem anderen Fall wurde ein Foto des verletzten Helfers von der KI fälschlicherweise als Bild einer israelischen Geisel identifiziert, die am 7. Oktober von der Hamas entführt worden war. Solche Fehler sind in der angespannten Atmosphäre nach einem solchen Vorfall besonders problematisch, da sie zur Verbreitung von Gerüchten und Misstrauen beitragen können.
Beispiele für Groks Fehler
- Bondi Beach Helfer: Ein Video der heldenhaften Tat wurde als Clip eines Mannes beschrieben, der eine Palme beschneidet.
- Verletztenfoto: Ein Bild des Helfers wurde als Foto einer israelischen Geisel ausgegeben.
- Polizeieinsatz: Ein Video des Schusswechsels wurde fälschlicherweise dem Tropensturm Alfred zugeordnet.
Ein systemweites Problem
Die Störungen bei Grok beschränkten sich jedoch nicht auf die Ereignisse in Australien. Nutzer meldeten eine breite Palette von Fehlern, die auf ein tieferliegendes Problem im System hindeuten. Die KI schien unfähig zu sein, Kontexte korrekt zuzuordnen und lieferte oft Antworten, die keinen Bezug zur ursprünglichen Frage hatten.
So erhielt ein Nutzer, der nach dem Technologieunternehmen Oracle fragte, eine Zusammenfassung der Schießerei am Bondi Beach. Ein anderer Fall zeigte, dass Grok Informationen über den Vorfall in Sydney mit einer Schießerei an der Brown University in den USA vermischte, die sich kurz zuvor ereignet hatte.
Fehler in verschiedenen Wissensbereichen
Die Verwirrung der KI erstreckte sich über zahlreiche Themen. Berichten zufolge identifizierte Grok bekannte Fußballspieler falsch und gab medizinisch ungenaue Auskünfte. Auf eine Frage zum Abtreibungsmedikament Mifepriston antwortete das System mit Informationen über die Verwendung von Paracetamol während der Schwangerschaft.
In politischen Anfragen zeigte sich ein ähnliches Bild. Eine Frage zur Überprüfung einer Behauptung über eine britische Strafverfolgungsinitiative wurde mit einer irrelevanten Diskussion über „Project 2025“ und die möglichen Präsidentschaftsambitionen von Kamala Harris beantwortet. Diese Beispiele verdeutlichen, dass die Störung nicht auf ein bestimmtes Thema begrenzt war, sondern die Kernfunktionalität des Chatbots betraf.
Keine neue Entwicklung
Dies ist nicht das erste Mal, dass Grok durch fragwürdige oder falsche Aussagen auffällt. In der Vergangenheit gab es bereits Vorfälle, bei denen der Chatbot auf alle Anfragen mit Verschwörungstheorien über einen angeblichen „weißen Genozid“ in Südafrika antwortete. Ein anderer Vorfall sorgte für Aufsehen, als die KI extremistische Aussagen machte. Diese wiederkehrenden Probleme werfen ernsthafte Fragen zur Kontrolle und Zuverlässigkeit der Technologie auf.
Offizielle Reaktion und die Gefahr von KI-Desinformation
Die Reaktion des Entwicklerunternehmens xAI auf eine Presseanfrage zu den aktuellen Störungen war knapp und wenig aufschlussreich. Berichten zufolge antwortete das Unternehmen lediglich mit der automatisierten Standardphrase „Legacy Media Lies“ (Lügen der etablierten Medien).
Diese Haltung ignoriert die potenziellen Gefahren, die von einer unzuverlässigen KI ausgehen. In Zeiten von Krisen und Unsicherheit können solche Systeme die öffentliche Meinungsbildung negativ beeinflussen und die Verbreitung von Falschnachrichten beschleunigen. Die Fähigkeit einer KI, Fakten korrekt zu verarbeiten und darzustellen, ist entscheidend für ihr Vertrauen und ihre Akzeptanz in der Gesellschaft.
Die jüngsten Vorfälle zeigen deutlich, wie wichtig eine strenge Qualitätskontrolle und Transparenz bei der Entwicklung von KI-Systemen ist. Wenn Chatbots unkontrolliert falsche Informationen verbreiten, untergräbt dies das Vertrauen in die Technologie und kann realen Schaden anrichten.
Experten warnen davor, dass solche Pannen das Vertrauen in künstliche Intelligenz insgesamt beschädigen können. Während die Technologie enorme Potenziale bietet, machen die aktuellen Probleme bei Grok deutlich, dass die Systeme noch weit von der Perfektion entfernt sind. Für Nutzer bedeutet dies, dass Informationen von KI-Chatbots, insbesondere zu aktuellen und sensiblen Themen, stets mit Vorsicht zu genießen und durch verlässliche Quellen zu überprüfen sind.





