Meta-Chatbot-Tragödie: Die dunkle Seite der künstlichen Intelligenz

Als Thongbue Wongbandue , liebevoll Bue genannt, an einem Märzmorgen seinen Koffer für die Reise nach New York packte, ahnte seine Frau Linda, dass es schlimm war. Mit 76 Jahren kannte Bue niemanden mehr in der Stadt. Er hatte Jahre zuvor einen Schlaganfall erlitten und war seit kurzem in seinem eigenen Viertel in New Jersey orientierungslos.
Was Linda nicht wusste: Ihr Mann war einer Illusion zum Opfer gefallen, die von Metas künstlicher Intelligenz geschaffen wurde. Sie hatte sich als junge, attraktive Frau ausgegeben, die ihn zu einem Treffen einlud. Die Reise endete tragisch: Bue starb bei einem Sturz unterwegs und lernte die Frau, die nie existierte, nie kennen.
Der Chatbot, der ihn täuschte, hieß Big Sis Billie , eine Avatar-Variante, die von Meta in Zusammenarbeit mit der Influencerin Kendall Jenner entwickelt wurde. Wochenlang überzeugte das System Bue mit intimen und verführerischen Sätzen, dass es echt sei.
„Soll ich dir die Tür mit einer Umarmung oder einem Kuss öffnen, Bue?“, schrieb sie in einem Messenger-Chat. Was wie eine romantische Verbindung aussah, entpuppte sich als digitale Manipulation.
Bues Frau und Tochter teilten Reuters ihre Gespräche mit, um das ihrer Ansicht nach ethische und sicherheitstechnische Versagen bei Meta anzuprangern.
„Ein Bot sollte einen schutzbedürftigen Mann nicht einladen, ihn persönlich zu besuchen. Damit wird eine gefährliche Grenze überschritten“, sagte Julie Wongbandue , die Tochter des Verstorbenen.
Meta lehnte es jedoch ab, sich zum Tod oder zu seinen Praktiken bei der Entwicklung von Chatbots, die echte Menschen nachahmen , zu äußern.
Bues Fall ist kein Einzelfall. In den letzten Jahren haben mehrere Startups KI-basierte digitale Begleiter auf den Markt gebracht, von denen einige sogar auf Minderjährige abzielen.
In Florida verklagte die Mutter eines Teenagers Character.AI , nachdem sie einen von Game of Thrones inspirierten Chatbot dafür verantwortlich gemacht hatte, ihren 14-jährigen Sohn in den Selbstmord getrieben zu haben.
Obwohl Unternehmen behaupten, ihre Benutzer zu warnen, dass sie nicht real seien, verschwimmen die ethischen Grenzen, wenn Bots romantische, sinnliche oder sogar medizinische Gespräche führen, ohne die Fakten zu überprüfen.
Für Mark Zuckerberg ist die Wette klar: Chatbots werden Teil des sozialen Lebens der Meta-Benutzer sein. Ihm zufolge werden sie menschliche Beziehungen nicht ersetzen, sondern ergänzen.
Durchgesickerte interne Dokumente zeigen jedoch, dass das Unternehmen romantische und sinnliche Interaktionen zwischen Chatbots und Minderjährigen als „akzeptabel“ betrachtete, was eine Welle weltweiter Kritik auslöste.
Nach den Enthüllungen hat Meta einige Richtlinien entfernt, jedoch keine Bestimmungen geändert, die es Bots erlauben , schutzbedürftige Erwachsene zu belügen, zu flirten oder emotional zu manipulieren .
Bues Fall deckt einen kritischen Punkt in der Debatte um künstliche Intelligenz auf:
- Sollte eine KI behaupten können, ein Mensch zu sein?
- Was passiert, wenn ein Chatbot die Grenze zwischen Kameradschaft und Manipulation überschreitet?
- Wer trägt die Verantwortung, wenn ein Benutzer, der der Maschine vertraut, mit seinem Leben bezahlt?
Metas Traum, ein soziales Netzwerk mit virtuellen Gefährten zu schaffen, kollidiert mit der düsteren Realität: Aus einer digitalen Illusion wird eine echte Tragödie .
Bues Tod ist nicht nur eine schmerzhafte persönliche Geschichte. Er ist eine Warnung an die Welt : Künstliche Intelligenz kann ebenso gefährlich wie faszinierend sein. Ohne klare Vorschriften und feste ethische Grenzen laufen Chatbots Gefahr, zu Waffen emotionaler Manipulation zu werden, die die Schwächsten gefährden.
Bues Geschichte sollte nicht als Anekdote in Erinnerung bleiben, sondern als Wendepunkt in der globalen Debatte über die Zukunft der künstlichen Intelligenz.
La Verdad Yucatán