Cómo mienten los algoritmos

Ya no debemos temer a los espías ni a los panfletos durante las elecciones. Basta con los «me gusta» , los clics y los vídeos de 30 segundos. Con un simple desplazamiento , se pueden contaminar las elecciones, moldear las opiniones y dividir a la sociedad. La manipulación política mediante algoritmos no es ficción ni futurología: es el presente digital de la democracia.
Los algoritmos que gestionan las redes sociales y las plataformas de contenido se diseñaron para captar nuestra atención, prolongar el tiempo que pasamos en ellas y anticipar nuestros deseos. ¿El problema? Lo que capta nuestra atención no siempre es lo que mejor nos informa. Al contrario: cuanto más emotivo, polarizador y provocador sea el contenido, mayor será su alcance. El algoritmo aprende de nosotros, pero también nos moldea. Y cuando este ciclo es manipulado por intereses externos, se convierte en un arma de interferencia.
Esto es lo que vimos con la interferencia rusa en las elecciones presidenciales estadounidenses, el referéndum del Brexit y varias elecciones europeas. Perfiles falsos, bots, campañas de desinformación profesionalizadas y estrategias digitales diseñadas para dividir, generar desconfianza y socavar el discurso público. Y lo que es más grave: la mayoría de estas campañas no serían efectivas sin la complicidad silenciosa de algoritmos que amplifican lo que impacta, lo que inflama, lo que miente.
Lo cierto es que los algoritmos no son neutrales. Tienen una lógica económica, prioridades y objetivos definidos. Y cuando carecen de mecanismos de transparencia, rendición de cuentas o auditoría externa, se convierten en cajas negras con poder real sobre opiniones, comportamientos y decisiones políticas. Quien controla el algoritmo controla parcialmente la esfera pública.
China es un caso paradigmático: plataformas como TikTok obedecen a una lógica de censura y promoción de contenido acorde con los intereses del régimen. El peligro no solo afecta a los usuarios chinos, sino a todos los que utilizan estas plataformas como fuente principal de información. Lo mismo ocurre con los vídeos que niegan la existencia de la guerra en Ucrania, el revisionismo histórico promovido por cuentas falsas o el discurso de odio propagado por segmentos radicales de las redes.
Portugal no es inmune. La alfabetización digital sigue siendo baja, la dependencia de las redes sociales es alta y el escrutinio de las plataformas es prácticamente inexistente. Ya hemos visto circular desinformación sobre vacunas, inmigración, guerra y política nacional. La interferencia externa, mediante la desestabilización informativa, también supone un riesgo real para la sociedad portuguesa.
Europa está reaccionando. Con la Ley de Servicios Digitales, se está consolidando un régimen de mayor transparencia y rendición de cuentas para las plataformas. La Ley de IA podría complementar esta respuesta imponiendo límites a la inteligencia artificial generativa y exigiendo sistemas de verificación.
Si los algoritmos moldean lo que vemos, solo la educación puede moldear nuestra forma de pensar. La respuesta no puede ser meramente legislativa, sino también educativa. Sin alfabetización digital, siempre seremos blancos fáciles en un tablero de ajedrez invisible.
Esta es también la nueva forma de guerra híbrida: constante e invisible. No se trata solo de proteger datos. Se trata de proteger la democracia. En un mundo donde los algoritmos mienten, defender la verdad es una decisión política. Y un deber colectivo.
observador