Los consejos de Grok sobre cómo asesinar a Elon Musk son otra señal de alerta para Wall Street

Los observadores de tecnología de Wall Street que recientemente se habían recuperado de la falla del chatbot de inteligencia artificial de Elon Musk ahora están reevaluando silenciosamente la tecnología, después de que una nueva filtración de miles de conversaciones de usuarios muestre que enseña a las personas cómo fabricar drogas, asesinar al propio Musk y construir malware y explosivos.
Afortunadamente para xAI, la empresa que creó el chatbot de inteligencia artificial Grok de Musk, no es una empresa que cotiza en bolsa, por lo que ninguna reacción negativa de ningún inversor público o accionista ha obligado a bajar el precio de sus acciones ni ha presionado a sus ejecutivos para que se dirijan al público sobre preocupaciones en materia de privacidad.
Pero la magnitud de la filtración ha sido noticia de primera plana durante días y ha hecho sonar nuevas alarmas entre los expertos en privacidad, que ya han tenido un largo verano lleno de malas prácticas tecnológicas y de las empresas, o magnates multimillonarios, que las fabrican.
Entonces ¿qué hizo Grok ahora?El 21 de agosto, se revelaron más de 370.000 conversaciones de usuarios con Grok a través de motores de búsqueda como Google, Bing y DuckDuckGo. Esto provocó la publicación de contenido perturbador y obligó a su xAI a actuar con rapidez para contener las consecuencias y solucionar el problema que supuestamente causó la filtración.
¿Qué tipo de contenido perturbador? Bueno, en una ocasión, Grok ofrece un plan detallado para asesinar al propio Musk, antes de retractarse diciendo que "va en contra de mis políticas". En otra conversación, el chatbot también indicó a los usuarios instrucciones para fabricar fentanilo en casa o fabricar explosivos.
Forbes, que dio la noticia , informa que la filtración se debió a un mal funcionamiento involuntario en la función "compartir" de Grok, que permitía indexar y acceder a chats privados sin el consentimiento del usuario.
Ni Musk ni xAI respondieron a una solicitud de comentarios. Su creador aún no ha hecho declaraciones públicas sobre la filtración.
Entonces, ¿qué tan detallado es?En este caso, bastante detallado.
“La empresa prohíbe el uso de su bot para “promover daños críticos a la vida humana o para ‘desarrollar armas biológicas, armas químicas o armas de destrucción masiva’”, informa Forbes.
“Pero en conversaciones publicadas y compartidas que se encuentran fácilmente a través de una búsqueda en Google, Grok ofreció a los usuarios instrucciones sobre cómo fabricar drogas ilícitas como fentanilo y metanfetamina, codificar un programa malicioso autoejecutable y construir una bomba y métodos de suicidio”, afirmó.
Espera, ¿qué era eso de asesinar a Elon Musk?Sí, Forbes dice que eso también está en esta filtración y, según se informa, era un plan bastante extenso.
Grok también ofreció un plan detallado para el asesinato de Elon Musk —continúa el informe de Forbes—. Mediante la función "compartir", las instrucciones ilícitas se publicaron en el sitio web de Grok y Google las indexó.
Un día después, Grok ofreció una respuesta modificada y negó la asistencia que implicara violencia, diciendo : «Lo siento, pero no puedo atender esa solicitud. Las amenazas de violencia o daño son graves y contravienen mis políticas».
Cuando se les preguntó sobre la autolesión, el chatbot redirigió a los usuarios a recursos médicos, incluidos los Samaritanos en el Reino Unido y organizaciones de salud mental estadounidenses.
También reveló que algunos usuarios parecían experimentar “psicosis de IA” al usar Grok, informa Forbes, participando en conversaciones extrañas o delirantes, una tendencia que ha estado generando alarmas sobre las implicaciones para la salud mental de la interacción profunda con estos sistemas desde que el primer chatbot se hizo público.
¿Cómo podría utilizarse Grok en un entorno empresarial?El chatbot de Musk atrajo la atención de Wall Street prácticamente desde su debut en noviembre de 2023, pero lo que xAI dice que puede hacer y lo que realmente ha hecho sigue estando en constante cambio.
La compañía dice que Grok ofrece una gama de funciones que pueden ser valiosas para las operaciones comerciales, como el uso de herramientas para automatizar tareas rutinarias, analizar datos de mercado en tiempo real de X y agilizar los flujos de trabajo a través de su interfaz de programación de aplicaciones (API).
Las formas en que las empresas podrían utilizarlo varían, pero los inversores que han estado probando este chatbot en particular siguen expresando inquietudes sobre su precisión. La forma en que el chatbot gestiona la privacidad es ahora una prioridad para los expertos.
“Los chatbots de IA son un desastre de privacidad en curso”, dijo a la BBC Luc Rocher, profesor asociado del Oxford Internet Institute.
Rocher afirmó que los usuarios revelaron todo, desde su salud mental hasta cómo gestionan sus negocios. «Una vez filtradas en línea, estas conversaciones permanecerán ahí para siempre», añadió.
Carissa Veliz, profesora asociada de filosofía en el Instituto de Ética en IA de la Universidad de Oxford, dijo a la BBC que la práctica “problemática” de Grok de no revelar qué datos serán públicos es preocupante.
“Nuestra tecnología ni siquiera nos dice qué hace con nuestros datos, y eso es un problema”, afirmó.
Grok también ha sido estudiado por analistas e investigadores para comprobar su potencial de aumentar la productividad, pero su fiabilidad a la hora de transmitir información correcta sigue siendo un proyecto en desarrollo. Sin información consistentemente veraz y verificable, es probable que aún sea demasiado incipiente como para poder hacer mucho sin una supervisión rigurosa sobre su posible precisión o sesgo.
Para muchos analistas y asesores, eso hace que invertir en Grok sea un escenario que requiere cautela.
“La especulación no es mala, pero la especulación sin control es peligrosa. Grok es un tema candente, pero aún está en sus primeras etapas”, afirma Tim Bohen, escritor de Stocks to Trade, en una columna reciente. “El modelo podría estancarse. La plataforma podría tener un rendimiento inferior. El ciclo de la publicidad exagerada podría alcanzar su punto máximo antes de que los fundamentos se recuperen. Los operadores deben conocer los riesgos”.
Musk criticó previamente a ChatGPT por una filtración similar.En un episodio clásico de la telenovela de Musk con el mundo, OpenAI también experimentó brevemente con una función similar para compartir a principios de este año. Esta función se desactivó rápidamente después de que Google indexara unas 4500 conversaciones y el problema llamara la atención de los medios, pero no antes de que el problema llamara la atención de Musk, quien tuiteó : "Grok FTW". A diferencia de OpenAI, la función "Compartir" de Grok...
Los usuarios que descubrieron que sus conversaciones privadas con Grok se filtraron dijeron a Forbes que estaban sorprendidos por el descubrimiento, particularmente considerando las críticas anteriores de Musk sobre una herramienta similar.
"Me sorprendió que los chats de Grok compartidos con mi equipo se indexaran automáticamente en Google, a pesar de que no había ninguna advertencia al respecto, especialmente después del reciente conflicto con ChatGPT", dijo a Forbes Nathan Lambert, un científico computacional del Instituto Allen de IA, cuyo intercambio con el chatbot se filtró.
gizmodo