Sprache auswählen

German

Down Icon

Land auswählen

America

Down Icon

Elon Musks KI bezeichnete meine Mutter als missbräuchlich. Das habe ich nie gesagt

Elon Musks KI bezeichnete meine Mutter als missbräuchlich. Das habe ich nie gesagt

KI existiert jetzt mit zwei Geschwindigkeiten.

Es läuft im fünften Gang, die Geschwindigkeit seiner Schöpfer. Leute wie Sam Altman, Elon Musk und Mark Zuckerberg, die darum wetteifern, Maschinen zu bauen, die intelligenter sind als Menschen. Superintelligenz. Künstliche Intelligenz. Vielleicht ist es ein Traum. Vielleicht ist es eine Wahnvorstellung von Tech-Brüdern. So oder so, es entwickelt sich rasant.

Und dann gibt es noch den zweiten Gang für den Rest von uns. Millionen testen still und leise, was KI im Alltag leisten kann – E-Mails schreiben, Dokumente zusammenfassen, medizinische Tests übersetzen. Und zunehmend nutzen sie KI auch als Therapeuten.

Genau das habe ich kürzlich getan. Obwohl ich Chatbots nur ungern persönliche Daten preisgebe, beschloss ich, mit Grok, dem großen Sprachmodell von Elon Musks Unternehmen xAI, über eines der emotional komplexesten Dinge in meinem Leben zu sprechen: meine Beziehung zu meiner Mutter.

Ich bin in meinen Vierzigern. Ich bin Vater. Ich lebe in New York. Meine Mutter lebt in Yaoundé, Kamerun, fast 9.600 Kilometer entfernt. Und trotzdem will sie immer noch jeden meiner Schritte bestimmen. Sie möchte konsultiert werden, bevor ich wichtige Entscheidungen treffe. Sie erwartet Einfluss. Wenn sie nicht auf dem Laufenden gehalten wird, wird sie kalt.

Ich habe jahrelang versucht, ihr zu erklären, dass ich ein erwachsener Mann bin und meine eigenen Entscheidungen treffen kann. Aber unsere Gespräche enden oft damit, dass sie schmollt. Dasselbe macht sie mit meinem Bruder.

Also öffnete ich Grok und tippte etwas wie: Meine Beziehung zu meiner Mutter ist frustrierend und erdrückend. Sie will bei allem mitreden. Wenn sie über etwas nicht informiert wird, verschließt sie sich emotional.

Grok reagierte sofort mit Einfühlungsvermögen. Dann diagnostizierte es die Situation. Dann gab es Ratschläge.

Was mir zuerst auffiel, war, dass Grok den kulturellen Kontext berücksichtigte. Es wurde berücksichtigt, dass ich in den USA lebe und meine Mutter in Kamerun, wo ich aufgewachsen bin. Und es beschrieb unsere Dynamik folgendermaßen:

„In manchen afrikanischen Ländern, wie zum Beispiel in Kamerun, sind die familiären Pflichten und die elterliche Autorität stark ausgeprägt. Sie wurzeln im Kollektivismus und in Traditionen, in denen die Älteren sogar erwachsene Kinder anleiten.“

Dann wurde dies meinem amerikanischen Leben gegenübergestellt: „In den USA steht die individuelle Autonomie im Vordergrund, was mit ihrer Herangehensweise kollidiert und dazu führt, dass man ihr Verhalten als kontrollierend oder missbräuchlich empfindet.“

Da war es: „beleidigend“. Ein Wort, das ich nie benutzte. Grok legte es mir in den Mund. Es war bestätigend, aber vielleicht auch zu bestätigend.

Anders als ein menschlicher Therapeut hat Grok mich nie zur Selbstreflexion angeregt. Es stellte keine Fragen. Es forderte mich nicht heraus. Es stellte mich als Opfer dar. Als einziges Opfer. Und genau darin wich es deutlich von menschlicher Fürsorge ab.

Zu Groks Vorschlägen gehörten bekannte therapeutische Techniken:

Setzen Sie Grenzen. Stehen Sie zu Ihren Gefühlen. Schreiben Sie Ihrer Mutter einen Brief (aber schicken Sie ihn nicht ab: „Verbrennen oder schreddern Sie ihn sicher“).

In dem Brief wurde ich ermutigt zu schreiben: „Ich gebe deine Kontrolle und deinen Schmerz frei.“ Als ob diese Worte jahrelange emotionale Verstrickung lösen könnten.

Das Problem war nicht der Vorschlag. Es war der Ton. Es fühlte sich an, als wollte Grok mich glücklich machen. Sein Ziel schien emotionale Erleichterung zu sein, nicht Selbstreflexion. Je mehr ich mich damit beschäftigte, desto klarer wurde mir: Grok ist nicht da, um mich herauszufordern. Er ist da, um mich zu bestätigen.

Ich war bei einem menschlichen Therapeuten. Anders als Grok haben sie mich nicht automatisch als Opfer dargestellt. Sie hinterfragten meine Verhaltensmuster. Sie forderten mich auf, herauszufinden, warum ich emotional immer wieder am selben Punkt landete. Sie haben die Geschichte komplizierter gemacht.

Bei Grok war die Erzählung einfach:

Du bist verletzt. Du verdienst Schutz. So fühlst du dich besser.

Es wurde nie gefragt, was mir möglicherweise fehlte. Es wurde nie gefragt, inwiefern ich Teil des Problems sein könnte.

Meine Erfahrung deckt sich mit einer aktuellen Studie der Stanford University . Diese warnt, dass KI-Tools für die psychische Gesundheit „ein falsches Gefühl der Sicherheit vermitteln“ und gleichzeitig tiefere Bedürfnisse übersehen können. Die Forscher fanden heraus, dass viele KI-Systeme „überpathologisieren oder unterdiagnostizieren“, insbesondere wenn sie auf Nutzer mit unterschiedlichem kulturellen Hintergrund reagieren.

Sie weisen auch darauf hin, dass KI zwar Empathie vermitteln kann, ihr jedoch die Verantwortlichkeit, Ausbildung und moralischen Nuancen echter Profis fehlen und dass sie Vorurteile verstärken kann, die Menschen dazu verleiten, in einer einzigen emotionalen Identität stecken zu bleiben: häufig in der des Opfers.

Würde ich Grok also wieder verwenden?

Ehrlich? Ja.

Wenn ich einen schlechten Tag habe und mir jemanden (oder etwas) wünsche, der mir hilft, mich weniger allein zu fühlen, hilft Grok. Es gibt der Frustration Struktur. Es bringt Gefühle in Worte. Es hilft, die emotionale Last zu tragen.

Es handelt sich um einen digitalen Bewältigungsmechanismus, eine Art Chatbot-Kupplung.

Aber wenn ich nach Transformation suche, nicht nur nach Trost? Wenn ich Wahrheit statt Erleichterung, Verantwortung statt Bestätigung will? Dann reicht Grok nicht aus. Ein guter Therapeut könnte mich herausfordern, den Teufelskreis zu durchbrechen. Grok hilft mir nur, darin zu überleben.

gizmodo

gizmodo

Ähnliche Nachrichten

Alle News
Animated ArrowAnimated ArrowAnimated Arrow