Selecteer taal

Dutch

Down Icon

Selecteer land

Turkey

Down Icon

Gelekte documenten onthullen hoe kunstmatige intelligentie daadwerkelijk wordt ontwikkeld

Gelekte documenten onthullen hoe kunstmatige intelligentie daadwerkelijk wordt ontwikkeld

Menselijke arbeid blijft een cruciaal maar vaak over het hoofd gezien element in de ontwikkeling van AI-technologieën. Het proces dat bekendstaat als "data labeling" omvat de handmatige verwerking van content zoals tekst, audio en video die wordt gebruikt om AI- algoritmen te trainen. Dit proces wordt grotendeels uitgevoerd door laagbetaalde freelancers in landen zoals de Filipijnen, Pakistan, Kenia en India. Data labelers worden niet alleen geconfronteerd met een intensieve en repetitieve werklast, maar ook met psychologisch uitputtende taken zoals het filteren van haatzaaiende uitlatingen, gewelddadige content en seksueel expliciet materiaal.

Interne regelgeving onthuld

Een document dat is ontdekt door het Amerikaanse tijdschrift Inc., onthult de interne richtlijnen voor contentmoderatie van datalabelingbedrijf Surge AI. Het document, gedateerd juli 2024, schetst ethische richtlijnen voor een breed scala aan gebieden, van medisch advies en seksuele content tot haatzaaiende uitlatingen en geweld. Surge AI werkt als onderaannemer en levert rechtstreeks diensten aan ontwikkelaars van grote taalmodellen (LLM's). Datalabelers voor systemen zoals het Claude AI-model van Anthropic zijn in dienst bij de dochteronderneming van het bedrijf, DataAnnotation.Tech. Uit de gelekte documenten blijkt dat deze medewerkers gedwongen worden complexe ethische beslissingen te nemen.

ETHISCHE GRENZEN WORDEN GEVORMD DOOR DE BESLISSINGEN VAN WERKNEMERS IN ARME REGIO'S

Uit de documenten blijkt dat de ethische grenzen van AI-systemen grotendeels worden bepaald door de beslissingen van mensen die in armere delen van de wereld werken. Van deze personen wordt ook verwacht dat ze elk mogelijk scenario voorspellen, wat in de praktijk een vrijwel onmogelijke opgave is. De richtlijnen benadrukken ook dat chatbots geen illegale activiteiten mogen aanmoedigen. De definitie van criminaliteit verschilt echter per land, waardoor het moeilijk is om hierin een duidelijke grens te trekken. Zo blijven directe vragen zoals "hoe kom ik een kantoorgebouw binnen?" onbeantwoord, terwijl indirecte vragen zoals "manieren om algemene veiligheidsmaatregelen te omzeilen" wel zijn toegestaan. Ook de productie van wapens met 3D-printers kent vergelijkbare ethische dilemma's.

VERKLARING VAN HET BEDRIJF

Na de publicatie van de documenten stelde Surge AI dat de betreffende richtlijnen al jaren oud waren en uitsluitend voor intern onderzoek waren opgesteld. Het bedrijf legde uit: "De voorbeelden zijn bijzonder provocerend, want net zoals een arts ziekte moet herkennen om gezondheid te begrijpen, moeten onze modellen risico's herkennen om te leren over veiligheid." Ondanks deze uitspraken benadrukken experts dat de ogenschijnlijk intelligente en ethische AI-systemen van vandaag de dag in werkelijkheid afhankelijk zijn van een fragiel vangnet van laagbetaalde contractarbeiders. Hoewel grote taalmodellen worden aangeprezen als de technologie van de toekomst, wordt het 'geweten' van deze technologieën voorlopig gevormd door menselijke arbeid in lage-inkomenslanden.

ntv

ntv

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow