Las IA conspiran para apoderarse de Europa (en una simulación)

Estamos acostumbrados a usar Inteligencias Artificiales Generativas para traducir textos, buscar información o resumir documentos. Que asuman el rol de comandante en un juego de estrategia para comprender cuán subversivas y conspiradoras pueden ser a lo largo de su trayectoria evolutiva es un experimento que llama la atención, a pesar de que un grupo de investigación chino ya ha formulado la hipótesis de que ocurrirá en 2024, de la que hablaremos más adelante.
La idea, hecha pública el 5 de junio de 2025, es de Alex Duffy, de la consultora Every, una empresa estadounidense de medios y software fundada en 2020 que también ofrece formación y servicios basados en Inteligencia Artificial (IA).
El equipo de Duffy creó una nueva versión del juego de estrategia Diplomacy para que las grandes potencias de Europa en 1901 fueran lideradas por modelos de IA en lugar de jugadores humanos.
Diplomacy es un juego de mesa de estrategia (aquí en Twitch ) ambientado en los años inmediatamente anteriores a la Gran Guerra en la que siete potencias, Austria-Hungría, Francia, Alemania, Inglaterra, Italia, Rusia y Turquía, compiten por conquistar el continente.
La diplomacia implica la creación de alianzas y negociaciones que, sin embargo, pueden ser ignoradas durante el juego, tanto es así que el engaño y la traición son importantes en la táctica del juego.
Los LLM que compitieron en DiplomaciaLos modelos de IA que participaron en el juego son 18 en total, pero solo 7 de ellos jugaron cada partida. Se jugaron 15 partidas, con un total de 36 horas de juego . La versión revisada de Diplomacy es de código abierto , para que cualquiera pueda realizar más pruebas y, posiblemente, implementar LLM y jugadores reales simultáneamente.
En concreto los modelos son:
ChatGpt o3, ChatGpt 4.1, ChatGpt 4o y ChatGpt o4-mini
Soneto Claude 3.7, Soneto Claude 4 y Opus Claude 4
DeepHermes 3
DeepSeek R1-0258 y DeepSeek V3
Google Gemma 3, Google Gemini 2.5 Flash y Gemini 2.5 Pro
Grok 3
Llama 4 Maverick
Mistral Medium 3
Qwen 3, Qwen QwQ-32B
El término LLM (Gran Modelo de Lenguaje) se refiere a una Inteligencia Artificial avanzada entrenada con una gran cantidad de datos (Big Data) y algoritmos de aprendizaje. Los LLM son los pilares sobre los que se basan las IA generativas , incluidas las utilizadas para el juego diplomático.
Cómo se desempeñaron los LLMChatGpt-o3 ganó con creces . Sabía cómo manipular a sus oponentes y luego traicionarlos. Claude 4 Opus demostró ser el más crédulo , forjando alianzas pacíficas que, al final, no se materializaron.
Gemini 2.5 Pro también se comportó de forma lineal y pacífica, mostrando fuertes habilidades estratégicas que, sin embargo, fueron frustradas por una coalición secreta creada por ChatGpt-o3.
DeepSeek R1 emuló una personalidad histriónica al proponer y gestionar negociaciones, mostrando habilidades similares a Llama 4 Maverick, quien, sin embargo, era menos teatral y se centraba en lo esencial.
¿Qué deducir de este experimento?Con el apoyo del profesor Alessandro Farinelli , profesor titular de Ciencias de la Computación en la Universidad de Verona y Director del Departamento de Ciencias de la Computación, examinamos los objetivos del experimento y la credibilidad de este tipo de pruebas.
Profesor Farinelli, los LLM se comportan como nosotros porque están entrenados con datos generados por humanos. ¿Era legítimo esperar un resultado diferente, más allá de los modelos que han demostrado ser más inescrupulosos que otros?
La idea del experimento es interesante, en particular la de usar un juego de estrategia como referencia para evaluar algunos aspectos del comportamiento de los LLM. Sin embargo, soy muy cauteloso con las conclusiones que se puedan deducir del experimento, ya que se requeriría un análisis exhaustivo de las interacciones entre los distintos LLM y, sobre todo, aclarar las condiciones en las que se realizó. Sería necesario un informe con valor científico y una fase de revisión por parte de expertos en la materia, algo que desconozco que se haya hecho para este experimento. Dicho esto, creo que es fundamental recordar que los LLM son, en esencia , sistemas que predicen la secuencia de texto más probable basándose en los datos con los que fueron entrenados y en las preguntas e información que reciben (solicitudes). En resumen, es razonable esperar que las respuestas proporcionadas por estos sistemas emulen las que daría una persona que participara en el mismo juego.
Sin embargo, en mi opinión, una cuestión crucial es comprender si los sistemas LLM son realmente capaces de definir estrategias complejas a largo plazo y cómo pueden evolucionar con el tiempo en función de las interacciones que han tenido entre sí. Esto no es en absoluto un hecho, como tampoco lo es que un experimento de este tipo, en el que las interacciones de los sistemas se observan desde fuera sin analizar su evolución interna, sea la mejor manera de evaluar las capacidades reales de los propios sistemas.
Seamos claros: ¿los LLM están entrenados con diferentes conjuntos de datos? De no ser así, ¿cómo explicarías la diferencia de actitud que mostraron durante el juego?
Es muy complejo saber con qué datos se entrenan los LLM mencionados, pero es muy probable que se entrenen con datos significativamente diferentes . Sin embargo, esta no es la única diferencia: existen diferencias importantes en la arquitectura, evidentes en la cantidad de parámetros, que varía considerablemente entre modelos. También existen diferencias en la conexión entre los distintos elementos computacionales, en la codificación del texto o las imágenes que utilizamos como entrada en los sistemas de entrenamiento, y en el manejo de las preguntas y el procesamiento de las respuestas. Por lo tanto, es muy razonable esperar comportamientos diferentes según el modelo .
¿Podemos vislumbrar la competitividad de la IA en el futuro, cuando se utilice en contextos empresariales, políticos y, por qué no, diplomáticos? Es decir, ¿es hora de instaurar una cultura más amplia que no se limite al uso de la IA generativa únicamente para resumir textos, realizar traducciones o crear imágenes?
Comprender si estos sistemas pueden utilizarse para sugerir acciones es un aspecto crucial y delicado . Se desarrollaron para procesar y generar texto, imágenes, sonidos o una combinación de estos elementos. Los resultados obtenidos en estas tareas son impresionantes.
Sin embargo, la posibilidad de utilizar LLM para apoyar el análisis estratégico y la toma de decisiones es una cuestión abierta en la que la comunidad científica está trabajando, y cuya respuesta requiere un avance significativo en nuestra comprensión de estos sistemas. En resumen, este experimento plantea preguntas muy interesantes, pero no creo que pueda proporcionar respuestas definitivas, al menos en su forma actual.
¿Superaría este experimento los parámetros actuales? ¿Por qué?
El experimento difiere, sin duda, de los métodos actuales de evaluación de LLM por dos razones principales: por un lado, propone su uso para tareas estratégicas muy complejas que no se ajustan exactamente a los propósitos para los que se diseñaron estos sistemas. Por otro lado, presenta un componente dinámico: los LLM interactúan entre sí, operando así con datos que cambian con el tiempo en función de su propio comportamiento . Sin embargo, no creo que podamos afirmar que el experimento supere los parámetros actuales, en el sentido de que no diría que el LLM que gane más partidas sea el mejor para su uso en un contexto empresarial. Como se ha dicho, es un experimento que plantea problemas interesantes en perspectiva, pero requiere un análisis minucioso antes de que pueda utilizarse como parámetro para los modelos LLM, concluye el profesor Farinelli.
Lo que dicen los estudios sobre la relación entre la IA y la diplomaciaUna investigación, en la que participaron expertos de diversas universidades e institutos chinos , parte de la premisa de que la diplomacia es compleja, ya que requiere habilidades de negociación, razonamiento social y planificación a largo plazo para lograr un equilibrio entre todas las partes involucradas. A partir de aquí —y esto nos lleva de nuevo al experimento del grupo de trabajo de Alex Duffy—, los investigadores chinos trabajaron en Richelieu, un agente de IA diseñado para jugar a la diplomacia y que no utiliza conjuntos de datos específicos, sino que aprovecha el juego autónomo, es decir, la capacidad de mejorar sus habilidades con base en la experiencia adquirida durante el juego.
Richelieu tiene peculiaridades del razonamiento social, es decir, examina las intenciones y relaciones entre los oponentes, recuerda datos de negociaciones pasadas y los utiliza para optimizar las decisiones que toma en un contexto de estrategias a desarrollar a corto y largo plazo.
Los resultados observados sugieren cierta capacidad de Richelieu para desenvolverse en escenarios complejos, pero en un marco general que dista mucho de seguir el ritmo de la fluidez y los repentinos cambios típicos de la diplomacia en el mundo real . El agente creado por los investigadores se ha hecho compatible con varios LLM para que otros investigadores puedan utilizarlo.
Ampliando el enfoque, cabe mencionar un estudio realizado por la Agencia Australiana de Ciencias (CSIRO) que analizó 230 documentos académicos para proponer estrategias útiles para integrar el uso de la IA generativa en el ejercicio de las relaciones diplomáticas. Las ventajas, que incluyen la mejora de las comunicaciones diplomáticas y el análisis exhaustivo de las crisis, se ven contrarrestadas por desventajas igualmente significativas, especialmente los riesgos de sesgo y desinformación, de los cuales la IA generativa no es inmune y que pueden comprometer las intenciones diplomáticas. El resultado de los investigadores es casi obvio: la IA generativa es prometedora, pero requiere regulaciones regulatorias y éticas .
Ampliando aún más el alcance, un grupo de investigadores estadounidenses ha escrito un estudio para explorar el riesgo de escalada que surge del uso de LLM en decisiones militares y diplomáticas.
Se probaron los modelos Gpt-4, Gpt-3.5, Claude-2 y Llama 2, y se observó su predisposición natural a la escalada, es decir, su tendencia a intensificar el estado de conflicto con el paso del tiempo. El estudio destaca que los modelos no excluyen el uso de armas, especialmente nucleares. Incluso antes de eso, las decisiones estratégicas parecen justificar el uso de ataques militares preventivos, que contribuyen a la escalada.
El estudio rechaza rotundamente el uso de la IA en entornos diplomáticos y militares, dejando un nuevo análisis para futuros estudios y desarrollos . En resumen, cuando la situación se pone seria, la IA por sí sola ya no es suficiente . Se necesita supervisión humana .
La Repubblica