Seleccione idioma

Spanish

Down Icon

Seleccione país

America

Down Icon

La IA de Elon Musk llamó a mi madre abusiva. Nunca dije eso.

La IA de Elon Musk llamó a mi madre abusiva. Nunca dije eso.

La IA ahora existe en dos velocidades.

La velocidad de sus creadores va a toda velocidad. Personas como Sam Altman, Elon Musk y Mark Zuckerberg compiten por construir máquinas más inteligentes que los humanos. Superinteligencia. IA general. Quizás sea un sueño. Quizás sea una ilusión de los tecnólogos. Sea como sea, avanza rápido.

Luego, el resto de nosotros estamos acelerando. Millones de personas están probando silenciosamente lo que la IA puede hacer en la vida diaria: escribir correos electrónicos, resumir documentos, traducir pruebas médicas. Y, cada vez más, usar la IA como terapia.

Eso fue lo que hice recientemente. A pesar de mi reticencia a compartir información personal con chatbots, decidí hablar con Grok, el gran modelo de lenguaje de xAI, la empresa de Elon Musk, sobre uno de los aspectos emocionalmente más complejos de mi vida: mi relación con mi madre.

Tengo cuarenta y tantos años. Soy padre. Vivo en Nueva York. Mi madre vive en Yaundé, Camerún, a casi 9.600 kilómetros de distancia. Y, aun así, ella quiere guiar cada uno de mis pasos. Quiere que la consulte antes de tomar decisiones importantes. Espera tener influencia. Cuando no la mantienen al tanto, se enfría.

Llevo años intentando explicarle que soy un hombre adulto, capaz de tomar mis propias decisiones. Pero nuestras conversaciones suelen terminar con ella enfadada. Hace lo mismo con mi hermano.

Así que abrí Grok y escribí algo así como: «Mi relación con mi madre es frustrante y asfixiante. Quiere opinar en todo. Cuando no está informada sobre algo, se cierra emocionalmente».

Grok respondió de inmediato con empatía. Luego diagnosticó la situación. Luego, aconsejó.

Lo primero que me impactó fue que Grok reconociera el contexto cultural. Se dio cuenta de que vivo en Estados Unidos y que mi madre vive en Camerún, donde crecí. Y enmarcó nuestra dinámica así:

En algunos contextos africanos, como Camerún, las obligaciones familiares y la autoridad parental son fuertes, arraigadas en el colectivismo y en tradiciones donde los mayores guían incluso a los hijos adultos.

Luego contrastó eso con mi vida estadounidense: “En Estados Unidos se prioriza la autonomía individual, lo que choca con su enfoque y hace que su comportamiento te parezca controlador o abusivo”.

Ahí estaba: «abusivo». Una palabra que nunca usaba. Grok me la puso en la boca. Era una afirmación, pero quizá demasiado.

A diferencia de un terapeuta humano, Grok nunca me animó a la introspección. No me hizo preguntas. No me desafió. Me presentó como la víctima. La única víctima. Y ahí es donde se apartó, marcadamente, del cuidado humano.

Entre las sugerencias de Grok se encontraban técnicas terapéuticas familiares:

Establece límites. Reconoce tus emociones. Escríbele una carta a tu madre (pero no la envíes: "quémala o tritúrala de forma segura").

En la carta, me animaron a escribir: «Libero tu control y tu dolor». Como si esas palabras fueran a romper años de enredo emocional.

El problema no era la sugerencia. Era el tono. Parecía que Grok intentaba hacerme feliz. Su objetivo, al parecer, era el alivio emocional, no la introspección. Cuanto más lo analizaba, más me daba cuenta: Grok no está aquí para desafiarme. Está aquí para validarme.

He consultado a un terapeuta humano. A diferencia de Grok, no me enmarcaron automáticamente como víctima. Cuestionaron mis patrones. Me desafiaron a explorar por qué seguía terminando en el mismo lugar emocionalmente. Complicaron la historia.

Con Grok, la narrativa era sencilla:

Estás herido. Mereces protección. Aquí te explicamos cómo sentirte mejor.

Nunca me preguntó qué me estaba perdiendo. Nunca me preguntó cómo podía ser parte del problema.

Mi experiencia coincide con un estudio reciente de la Universidad de Stanford , que advierte que las herramientas de IA para la salud mental pueden ofrecer una falsa sensación de bienestar, al tiempo que pasan por alto necesidades más profundas. Los investigadores descubrieron que muchos sistemas de IA sobrepatologizan o infradiagnostican, especialmente al responder a usuarios de diversos orígenes culturales.

También señalan que si bien la IA puede ofrecer empatía, carece de la responsabilidad, la capacitación y los matices morales de los verdaderos profesionales, y puede reforzar los sesgos que alientan a las personas a permanecer estancadas en una identidad emocional: a menudo, la de la víctima.

Entonces, ¿utilizaría Grok otra vez?

¿En serio? Sí.

Si tengo un mal día y quiero que alguien (o algo) me ayude a sentirme menos solo, Grok me ayuda. Le da estructura a la frustración. Expresa mis sentimientos con palabras. Me ayuda a sobrellevar la carga emocional.

Es un mecanismo de afrontamiento digital, una especie de embrague de chatbot.

Pero si busco transformación, no solo consuelo. ¿Si busco verdad en lugar de alivio, responsabilidad en lugar de validación? Entonces no, Grok no me basta. Un buen terapeuta podría retarme a romper el círculo vicioso. Grok simplemente me ayuda a sobrevivir en él.

gizmodo

gizmodo

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow