Selecteer taal

Dutch

Down Icon

Selecteer land

Portugal

Down Icon

Hoe algoritmen liegen

Hoe algoritmen liegen

Het zijn niet langer spionnen of pamfletten waar we bang voor moeten zijn tijdens verkiezingsperiodes. Likes , clicks en video's van 30 seconden zijn genoeg. Met een achteloze scroll kan een verkiezing worden besmet, kunnen meningen worden gevormd en kan de samenleving verdeeld raken. Politieke manipulatie door algoritmen is noch fictie, noch futurologie: het is het digitale heden van de democratie.

De algoritmen die sociale media en contentplatforms beheren, zijn ontworpen om onze aandacht te trekken, onze tijd daar te verlengen en te anticiperen op onze verlangens. Het probleem? Wat onze aandacht vasthoudt, is niet altijd wat ons het beste informeert. Integendeel: hoe emotioneler, polariserender en provocerender de content, hoe groter het bereik ervan. Het algoritme leert van ons, maar vormt ons ook. En wanneer deze cyclus wordt gemanipuleerd door externe belangen, wordt het een wapen van inmenging.

Dit is wat we zagen met de Russische inmenging in de Amerikaanse presidentsverkiezingen, het Brexit-referendum en diverse Europese verkiezingen. Nepprofielen, bots, geprofessionaliseerde desinformatiecampagnes en digitale strategieën die erop gericht zijn verdeeldheid te zaaien, wantrouwen te creëren en het publieke debat te ondermijnen. Wat nog ernstiger is: de meeste van deze campagnes zouden niet effectief zijn zonder de stille medeplichtigheid van algoritmen die versterken wat schokt, wat ophitst, wat liegt.

De waarheid is dat algoritmes niet neutraal zijn. Ze hebben economische logica, duidelijke prioriteiten en duidelijke doelstellingen. En wanneer ze geen mechanismen voor transparantie, verantwoording of externe controle hebben, worden ze black boxes met echte macht over meningen, gedrag en politieke beslissingen. Degene die het algoritme beheerst, beheerst gedeeltelijk de publieke sfeer.

China is een paradigmatisch geval: platforms zoals TikTok volgen een logica van censuur en contentpromotie die in lijn is met de belangen van het regime. Het gevaar schuilt niet alleen in Chinese gebruikers, maar in iedereen die deze platforms als primaire informatiebron gebruikt. Hetzelfde geldt voor video's die het bestaan van de oorlog in Oekraïne ontkennen, historisch revisionisme dat wordt gepromoot door nepaccounts, of haatdragende taal die wordt verspreid door radicale segmenten van de netwerken.

Portugal is niet immuun. De digitale geletterdheid blijft laag, de afhankelijkheid van sociale media is groot en platformcontrole is vrijwel onbestaande. We hebben al desinformatie zien circuleren over vaccins, immigratie, oorlog en nationale politiek. Externe inmenging, door middel van informatiedestabilisatie, vormt ook een reëel risico voor de Portugese samenleving.

Europa reageert. Met de Digital Services Act begint een regime van grotere transparantie en verantwoording voor platforms vorm te krijgen. De AI Act zou deze reactie kunnen aanvullen door beperkingen op te leggen aan generatieve kunstmatige intelligentie en verificatiesystemen te vereisen.

Als algoritmes bepalen wat we zien, kan alleen onderwijs bepalen hoe we denken. De reactie kan niet alleen wetgevend zijn, maar ook educatief. Zonder digitale geletterdheid zullen we altijd een makkelijk doelwit zijn op een onzichtbaar schaakbord.

Dit is ook de nieuwe vorm van hybride oorlogsvoering: constant en onzichtbaar. Het gaat niet alleen om het beschermen van data. Het gaat om het beschermen van de democratie. In een wereld waar algoritmes liegen, is het verdedigen van de waarheid een politieke keuze. En een collectieve plicht.

observador

observador

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow