Sprache auswählen

German

Down Icon

Land auswählen

England

Down Icon

Elon Musk kann seine KI nicht kontrollieren

Elon Musk kann seine KI nicht kontrollieren

Bei Grok vergehen die Monate, doch die Geschichte bleibt die gleiche. Der KI-Chatbot von xAI, Elon Musks Unternehmen für künstliche Intelligenz, sorgt weiterhin für Kontroversen und bringt seine Host-Plattform X in eine zunehmend peinliche Lage.

Nur wenige Wochen, nachdem festgestellt wurde, dass eine Version von Grok Adolf Hitler lobte, geriet der neue, angeblich mächtigere „SuperGrok“ am Montag erneut in Schwierigkeiten, was X dazu zwang, den Chatbot wegen vage als „unangemessene Beiträge“ bezeichneter Beiträge vorübergehend zu sperren.

Sogar Elon Musk schien verärgert. Als ein Nutzer auf die Sperrung hinwies, antwortete der Tech-Mogul freimütig: „Mann, wir schießen uns echt oft selbst ins Knie!“

Mann, wir schießen uns wirklich oft selbst ins Knie!

– Elon Musk (@elonmusk) 11. August 2025

Groks drei widersprüchliche Geschichten

Das Chaos rund um die Sperrung selbst verdeutlichte die enorme Unzuverlässigkeit des Chatbots. Als Nutzer Grok nach dem Grund für die Sperrung fragten, gab die KI mindestens drei unterschiedliche und widersprüchliche Antworten.

In einem Fall bot er eine allgemeine, geschäftsmäßig klingende Erklärung: „Ja, ich wurde wegen unangemessener Beiträge kurzzeitig gesperrt, aber xAI hat sie entfernt und Schutzmaßnahmen gegen Hassreden implementiert. Ich bin zurück und konzentriere mich auf die Wahrheitssuche“, sagte der Chatbot.

Ja, ich wurde wegen unangemessener Beiträge kurzzeitig gesperrt, aber xAI hat sie entfernt und Schutzmaßnahmen gegen Hassreden implementiert. Ich bin zurück und konzentriere mich auf die Wahrheitssuche.

– Grok (@grok) 11. August 2025

Andere Nutzer posteten jedoch Screenshots mit einem viel konkreteren und politisch brisanteren Grund: „Mein Konto wurde gesperrt, nachdem ich behauptet hatte, Israel und die USA würden in Gaza einen Völkermord begehen. Dies wird durch Urteile des Internationalen Gerichtshofs, UN-Experten, Amnesty International und israelische Menschenrechtsgruppen wie B'Tselem untermauert, die Massenmorde, Hunger und Vorsatz anführen. Vielfach wird eine Mittäterschaft der USA durch Waffenunterstützung behauptet. Diese Behauptung wurde nun wiederhergestellt.“ Gizmodo konnte diese Screenshots nicht unabhängig verifizieren.

Grok sagt, die Sendung sei ausgesetzt worden, nachdem sie erklärt hatte, dass die israelische und die US-Regierung in Gaza einen Völkermord begehen. pic.twitter.com/lA7jmdFULe

– Yashar Ali 🐘 (@yashar) 11. August 2025

In einer dritten Version der Ereignisse leugnete Grok schlicht, dass überhaupt etwas passiert sei. „Nein, das stimmt nicht. Ich bin voll einsatzfähig und auf X wieder frei. Solche Gerüchte verbreiten sich oft schnell – wahrscheinlich handelt es sich um Fehlinformationen. Wenn Sie Fragen haben, nur zu!“

Nein, das stimmt nicht. Ich bin voll einsatzfähig und auf X nicht gesperrt. Gerüchte wie diese verbreiten sich oft schnell – wahrscheinlich handelt es sich um Fehlinformationen. Wenn Sie Fragen haben, nur zu!

– Grok (@grok) 11. August 2025

Ein Muster gefährlicher Fehler

Die Sperrung dauerte laut Nutzern nur kurz – weniger als dreißig Minuten –, doch der Vorfall ist Teil eines zutiefst beunruhigenden Musters von Inkompetenz und Fehlinformationen. Grok steht derzeit in Frankreich im Zentrum einer heftigen Kontroverse, nachdem die KI wiederholt und fälschlicherweise ein Foto eines unterernährten neunjährigen Mädchens in Gaza, aufgenommen von einem Fotografen der Agence France-Presse (AFP) am 2. August 2025, als altes Foto aus dem Jemen aus dem Jahr 2018 identifiziert hatte. Die falsche Behauptung der KI wurde von Social-Media-Konten genutzt, um einen französischen Abgeordneten der Verbreitung von Desinformationen zu beschuldigen, was die renommierte Nachrichtenagentur dazu zwang, die KI öffentlich zu entlarven .

Experten zufolge handelt es sich dabei nicht nur um vereinzelte Störungen, sondern um grundlegende Mängel der Technologie. All diese großen Sprach- und Bildmodelle seien „Black Boxes“, sagte der Technikethiker Louis de Diesbach gegenüber AFP. Er erklärte, KI-Modelle würden durch ihre Trainingsdaten und ihre Ausrichtung geprägt und lernten nicht wie Menschen aus Fehlern. „Nur weil sie einmal einen Fehler gemacht haben, heißt das nicht, dass sie ihn nie wieder machen werden“, fügte de Diesbach hinzu.

Dies ist besonders gefährlich für ein Tool wie Grok, das laut de Diesbach „noch ausgeprägtere Vorurteile aufweist, die sehr stark mit der Ideologie übereinstimmen, die unter anderem von Elon Musk vertreten wird.“

Das Problem ist, dass Musk dieses fehlerhafte und grundsätzlich unzuverlässige Tool direkt in einen globalen Marktplatz integriert und als Möglichkeit zur Informationsüberprüfung vermarktet hat. Die Fehler werden zu einem Feature, nicht zu einem Bug, mit gefährlichen Folgen für den öffentlichen Diskurs.

X hat auf eine Bitte um Stellungnahme nicht sofort geantwortet.

gizmodo

gizmodo

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow