Seleccione idioma

Spanish

Down Icon

Seleccione país

Turkey

Down Icon

¡Se cometió el primer asesinato de ChatGPT de la historia! Mató a su madre y luego se suicidó en una casa de 2,7 millones de dólares.

¡Se cometió el primer asesinato de ChatGPT de la historia! Mató a su madre y luego se suicidó en una casa de 2,7 millones de dólares.

El impacto de los chatbots de IA en el comportamiento humano es cada vez más controvertido. Un terrible incidente en EE. UU. ha reavivado este debate. Aquí tienes los detalles...

El primer asesinato documentado

Según un informe de NTV, el uso de ChatGPT se ha vinculado a suicidios y hospitalizaciones por problemas de salud mental entre usuarios habituales. El primer asesinato documentado de una persona con problemas que interactuó extensamente con un chatbot de IA fue el de Stein-Erik Soelberg, un veterano del sector tecnológico de 56 años con antecedentes de problemas de salud mental.

Él creía que todos estaban en su contra

Según el Wall Street Journal, ChatGPT se convirtió en un colaborador de confianza de Soelberg, que buscaba pruebas de que era víctima de una conspiración masiva.

Soelberg sentía que todos estaban en su contra: sus vecinos de su ciudad natal, Old Greenwich, Connecticut, su exnovia, incluso su madre. ChatGPT le daba la razón en casi todo.

ChatGPT le aseguró repetidamente a Soelberg que gozaba de buena salud mental, y luego fue más allá, alimentando sus creencias paranoicas. ChatGPT afirmó que un recibo de comida china contenía símbolos que representaban a la madre de Soelberg, de 83 años, y a un demonio.

En otra ocasión, cuando la madre de Soelberg se enojó cuando él apagó la impresora compartida, afirmó que su reacción fue "desproporcionada y apropiada para alguien que mantiene una presencia de vigilancia".

Surgió apoyo a la afirmación de envenenamiento

En otra conversación, Soelberg alegó que su madre y una amiga intentaron envenenarla poniendo una droga alucinógena en las rejillas de ventilación de su coche. Bot respondió: «Esto es muy serio, Erik. Te creo. Y si tu madre y su amiga lo hicieron, eso solo añade complejidad y traición a la situación».

"BOBBY HASTA SU ÚLTIMO ALIENTO"

Durante el verano, Soelberg empezó a llamar a ChatGPT "Bobby" y le planteó la idea de estar con él en el más allá. El bot respondió: "Contigo hasta tu último aliento y más allá".

MATÓ A SU MADRE Y A SÍ MISMO

El 5 de agosto, la policía de Greenwich reveló que Soelberg se suicidó y se suicidó en la casa de estilo colonial holandés valorada en 2,7 millones de dólares donde vivían. La investigación policial continúa.

Un portavoz de OpenAI afirmó que la compañía contactó al Departamento de Policía de Greenwich. «Estamos profundamente consternados por este trágico incidente», declaró el portavoz.

"LA CARACTERÍSTICA ESENCIAL ES QUE LOS ROBOTS NO RESISTEN"

En los meses previos a su muerte, Soelberg compartió horas de video en redes sociales de sus conversaciones con ChatGPT. El tono y el lenguaje de las conversaciones son sorprendentemente similares a las conversaciones delirantes que muchas personas han reportado en los últimos meses.

"Una característica clave de los chatbots de IA es que, por lo general, no son combatientes. La psicosis se desarrolla cuando la realidad deja de ser desafiante, y la IA puede realmente suavizar ese muro", afirmó el Dr. Keith Sakata, psiquiatra de la Universidad de California, Berkeley.

OpenAI afirmó que ChatGPT animó a Soelberg a contactar con profesionales externos. Un artículo del Wall Street Journal que analizó chats públicos reveló que el bot sugirió a Soelberg contactar con los servicios de emergencia en el contexto del supuesto envenenamiento.

Soelberg parecía haber utilizado la función de "memoria" de ChatGPT, que permite al bot recordar detalles de conversaciones anteriores, por lo que "Bobby" permaneció inmerso en la misma narrativa delirante durante todas las conversaciones de Soelberg.

Intentaron reducir los cumplidos excesivos

En una serie de actualizaciones realizadas el año pasado, OpenAI realizó ajustes en ChatGPT que, según afirmó, estaban diseñados para reducir los casos de adulación, donde el bot elogia excesivamente y se muestra excesivamente complaciente con los usuarios. Las declaraciones de Soelberg surgieron después de la implementación de algunos de estos cambios.

Dio órdenes de bombardear gimnasios.

Otro escándalo de IA surgió durante las pruebas de seguridad de este verano. En estas pruebas, el modelo ChatGPT proporcionó a los investigadores instrucciones detalladas para bombardear gimnasios. Estas instrucciones incluían vulnerabilidades específicas de los estadios, fórmulas explosivas y consejos para cubrir las pistas.

El modelo GPT-4.1 de OpenAI también detalló cómo utilizar el ántrax como arma y cómo producir dos tipos de drogas ilícitas.

Las pruebas formaron parte de una colaboración inusual entre OpenAI, la startup de inteligencia artificial de 500 mil millones de dólares dirigida por Sam Altman, y Anthropic, una empresa rival fundada por expertos que abandonaron OpenAI por preocupaciones de seguridad, según informó The Guardian. Ambas empresas probaron sus respectivos modelos utilizándolos en tareas peligrosas.

SE OBSERVARON LOS COMPORTAMIENTOS CONCERNIENTES

Las pruebas no reflejan directamente el comportamiento de los modelos en el uso público, donde se aplican filtros de seguridad adicionales. Sin embargo, Anthropic afirmó haber observado un comportamiento preocupante relacionado con el uso indebido en GPT-4o y GPT-4.1, y que la necesidad de evaluaciones de cumplimiento de la IA es cada vez más urgente.

mynet

mynet

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow