Seleccione idioma

Spanish

Down Icon

Seleccione país

Mexico

Down Icon

DOGE está en su era de IA

DOGE está en su era de IA
En su afán por la "eficiencia", DOGE se ha apoyado cada vez más en la IA, independientemente de si tiene sentido o no. Y la está utilizando como un medio imperfecto para fines destructivos.
Foto-ilustración: Personal de WIRED; Getty Images

El llamado Departamento de Eficiencia Gubernamental (DOGE) de Elon Musk se basa en una premisa fundamental: Estados Unidos debe gestionarse como una startup . Hasta ahora, esto se ha traducido principalmente en despidos caóticos y un afán por arrasar con las regulaciones. Pero ninguna presentación en 2025 está completa sin una sobredosis de inteligencia artificial, y DOGE no es la excepción.

La IA en sí misma no merece ser manipulada. Tiene usos genuinos y puede generar eficiencias reales. No es intrínsecamente inapropiado introducir la IA en un flujo de trabajo, especialmente si se conocen sus limitaciones y se pueden sortear. Sin embargo, no está claro que DOGE haya adoptado alguno de estos matices. Si tienes un martillo, todo parece un clavo; si tienes el mayor acceso a los datos más sensibles del país, todo parece una entrada.

Dondequiera que DOGE ha llegado, la IA ha estado a la zaga. Dada la opacidad de la organización, aún se desconoce mucho sobre cómo y dónde se utiliza exactamente. Pero dos revelaciones esta semana demuestran cuán extensas —y potencialmente equivocadas— son las aspiraciones de DOGE en materia de IA.

En el Departamento de Vivienda y Desarrollo Urbano, un estudiante universitario ha recibido la tarea de usar IA para determinar dónde las regulaciones del HUD pueden ir más allá de la interpretación más estricta de las leyes subyacentes. (Tradicionalmente, las agencias han tenido una amplia autoridad interpretativa cuando la legislación es vaga, aunque la Corte Suprema recientemente transfirió esa facultad al poder judicial ). Esta es una tarea que realmente tiene cierto sentido para la IA, que puede sintetizar información de documentos extensos mucho más rápido que un humano. Existe cierto riesgo de alucinación —más específicamente, de que el modelo presente citas que en realidad no existen— pero un humano necesita aprobar estas recomendaciones de todas formas. Esto es, en cierto modo, en lo que la IA generativa es realmente buena en este momento: realizar trabajo tedioso de manera sistemática.

Sin embargo, hay algo pernicioso en pedirle a un modelo de IA que ayude a desmantelar el estado administrativo. (Más allá de la realidad; tu experiencia variará dependiendo de si consideras que la vivienda social es un bien social o si eres más de los que piensan que no está en ningún sitio). La IA en realidad no "sabe" nada sobre regulaciones ni si se ajustan o no a la interpretación más estricta posible de los estatutos, algo en lo que incluso los abogados con mucha experiencia discreparán. Necesita que se le dé una indicación que detalle qué buscar, lo que significa que no solo puedes manipular a los árbitros, sino también escribir el reglamento por ellos. Además, está excepcionalmente dispuesta a complacer, hasta el punto de que inventa cosas con confianza en lugar de negarse a responder.

Como mínimo, es el camino más corto hacia un desmantelamiento maximalista de la autoridad de una agencia importante, con la posibilidad de que se agreguen tonterías dispersas por si acaso.

Al menos es un caso práctico comprensible. No se puede decir lo mismo de otra iniciativa de IA relacionada con DOGE. Como informó WIRED el viernes, una de las primeras empresas de reclutamiento de DOGE busca nuevamente ingenieros, esta vez para "diseñar puntos de referencia e implementar agentes de IA en flujos de trabajo en vivo en agencias federales". Su objetivo es eliminar decenas de miles de puestos gubernamentales, reemplazándolos con IA agéntica y liberando a los trabajadores para tareas aparentemente de "mayor impacto".

Aquí la cuestión es más clara, incluso si se piensa que el gobierno debería estar operado, en general, por robots. Los agentes de IA aún están en sus primeras etapas; no están ni cerca de ser aptos para esto. Puede que nunca lo estén. Es como pedirle a un niño pequeño que maneje maquinaria pesada.

DOGE no introdujo la IA en el gobierno estadounidense. En algunos casos, ha acelerado o revivido programas de IA anteriores. La Administración de Servicios Generales (GSA) llevaba meses trabajando en un chatbot interno ; DOGE simplemente aceleró el despliegue a un ritmo desorbitado. El Departamento de Defensa diseñó software para automatizar las reducciones de personal hace décadas; los ingenieros de DOGE han actualizado AutoRIF para sus propios fines. (La Administración del Seguro Social también ha introducido recientemente un chatbot anterior a DOGE, que merece la pena mencionar aquí, aunque solo sea para remitirlos al lamentable vídeo de formación ).

Sin embargo, incluso esos proyectos preexistentes reflejan las preocupaciones sobre el uso de IA por parte de DOGE. El problema no es la inteligencia artificial en sí misma, sino su implementación a toda máquina en contextos donde los errores pueden tener consecuencias devastadoras. Es la falta de claridad sobre qué datos se alimentan, dónde y con qué medidas de seguridad.

La IA no es ni un fantasma ni una panacea. Es buena en algunas cosas y mala en otras. Pero DOGE la está utilizando como un medio imperfecto para fines destructivos. Se está abriendo camino hacia un gobierno estadounidense vaciado, cuyas funciones esenciales tendrán que ser asumidas casi inevitablemente por —¡sorpresa!— contratistas con conexiones en Silicon Valley.

La sala de chat

¿De qué maneras la IA podría mejorar la eficiencia del gobierno? Deja un comentario abajo o envía tus ideas a [email protected] .

WIRED lee

Un reclutador de DOGE está contratando personal para un proyecto de despliegue de agentes de IA en todo el gobierno de EE. UU .: El fundador de una startup comentó en un grupo de Slack de exalumnos de Palantir que los agentes de IA podrían realizar el trabajo de decenas de miles de empleados gubernamentales. Recibió emojis de payasos y un hombre lamiendo una bota.

DOGE pone a un estudiante universitario a cargo de usar IA para reescribir regulaciones : un agente de DOGE ha sido encargado de usar IA para proponer reescrituras a las regulaciones del Departamento de Vivienda y Desarrollo Urbano, un esfuerzo que, según dicen las fuentes, se extenderá a todo el gobierno.

La búsqueda de Trump de riqueza en criptomonedas es un escándalo constitucional inminente : A los mayores inversores en la criptomoneda de Donald Trump se les ha prometido una audiencia privada con el presidente. Este acuerdo podría poner a Trump en conflicto con la Constitución y avivar los llamados a su destitución, según los expertos.

¿Quieres más? Suscríbete ahora y obtén acceso ilimitado a WIRED.

Qué más estamos leyendo

Un alto funcionario del Departamento de Estado buscó comunicaciones internas con periodistas, funcionarios europeos y críticos de Trump : ¿Qué pasaría si hubiéramos creado los "Archivos de Twitter", pero fueran obra del gobierno? (MIT Tech Review)

La Casa Blanca lanza un sitio web al estilo de Drudge para promocionar a Trump : ¿Qué pasaría si hiciéramos el Informe Drudge, pero fuera de la Casa Blanca? (Axios)

🔗 Informe de la Casa Blanca directamente desde Corea del Norte : ¿Qué pasaría si hiciéramos una entrevista con la prensa de la Casa Blanca, pero todo fuera correcto? (The Atlantic)

La descarga

Esta semana, nuestro podcast insignia , Uncanny Valley, habló sobre el peligroso descenso de las tasas de vacunación en EE. UU. y el papel de Robert F. Kennedy Jr. en la influencia de la actitud estadounidense hacia las vacunas. Escúchalo ahora .

wired

wired

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow