Los expertos en IA instan urgentemente a los gobiernos a considerar la posibilidad de hacer algo

Todo el mundo parece reconocer que la inteligencia artificial es una tecnología emergente y en rápido desarrollo, con un potencial de inmenso daño si se opera sin medidas de seguridad, pero prácticamente nadie (excepto, por así decirlo, la Unión Europea ) se pone de acuerdo sobre cómo regularla. Por lo tanto, en lugar de intentar establecer un camino claro y preciso para permitir el funcionamiento de la IA, los expertos en la materia han optado por un nuevo enfoque: ¿qué tal si simplemente identificamos los ejemplos extremos que todos consideramos negativos y simplemente los aceptamos?
El lunes, un grupo de políticos, científicos y académicos acudió a la Asamblea General de las Naciones Unidas para anunciar el Llamamiento Global para el Establecimiento de Líneas Rojas en la IA , un llamado a los gobiernos del mundo para que se unan y acuerden las medidas más amplias para prevenir los "riesgos universalmente inaceptables" que podrían derivar del despliegue de la IA. El objetivo del grupo es establecer estas líneas rojas para finales de 2026.
La propuesta ha reunido hasta la fecha más de 200 firmas de expertos de la industria, líderes políticos y ganadores del Premio Nobel. La expresidenta de Irlanda, Mary Robinson, y el expresidente de Colombia, Juan Manuel Santos, se han sumado a la iniciativa, al igual que los ganadores del Nobel Stephen Fry y Yuval Noah Harari. Geoffrey Hinton y Yoshua Bengio, dos de los tres hombres conocidos como los " Padrinos de la IA " por su labor fundacional en este campo, también se han sumado a la lista.
Ahora bien, ¿cuáles son esas líneas rojas? Bueno, eso aún lo deciden los gobiernos. El llamado no incluye prescripciones ni recomendaciones políticas específicas, aunque sí menciona un par de ejemplos de lo que podría ser una línea roja. Prohibir el lanzamiento de armas nucleares o su uso en esfuerzos de vigilancia masiva sería una posible línea roja para los usos de la IA, afirma el grupo, mientras que prohibir la creación de IA que no pueda ser eliminada por intervención humana sería una posible línea roja para el comportamiento de la IA. Pero son muy claros: no las fijen como inamovibles, son solo ejemplos; pueden establecer sus propias reglas.
Lo único que el grupo ofrece concretamente es que cualquier acuerdo global debe construirse sobre tres pilares: “una lista clara de prohibiciones; mecanismos de verificación sólidos y auditables; y el nombramiento de un organismo independiente establecido por las Partes para supervisar su implementación”.
Sin embargo, los gobiernos deben acordar los detalles. Y esa es la parte difícil. La convocatoria recomienda que los países organicen cumbres y grupos de trabajo para resolverlo todo, pero seguramente hay muchos motivos contrapuestos en juego en esas conversaciones.
Estados Unidos, por ejemplo, ya se ha comprometido a no permitir que la IA controle armas nucleares (un acuerdo alcanzado durante la administración Biden, así que quién sabe si sigue vigente). Sin embargo, informes recientes indican que parte de la comunidad de inteligencia de la administración Trump ya está molesta por el hecho de que algunas empresas de IA no les permitan usar sus herramientas para labores de vigilancia nacional . Entonces, ¿apoyaría Estados Unidos tal propuesta? Quizás lo sepamos para finales de 2026... si es que llegamos tan lejos.
gizmodo