Les experts en IA appellent de toute urgence les gouvernements à réfléchir à la possibilité de faire quelque chose

Tout le monde semble reconnaître que l'intelligence artificielle est une technologie émergente et en plein essor, potentiellement extrêmement néfaste si elle est exploitée sans mesures de protection. Cependant, personne (à l'exception de l' Union européenne , en quelque sorte) ne parvient à s'entendre sur la manière de la réglementer. Ainsi, au lieu de tenter de définir une voie claire et précise pour permettre à l'IA de fonctionner, les experts du domaine ont opté pour une nouvelle approche : pourquoi ne pas simplement identifier les exemples extrêmes que nous jugeons tous mauvais et les accepter ?
Lundi, un groupe de responsables politiques, de scientifiques et d'universitaires s'est rendu à l'Assemblée générale des Nations Unies pour annoncer l' Appel mondial pour des lignes rouges en matière d'IA , un appel aux gouvernements du monde entier pour qu'ils se réunissent et s'accordent sur des garde-fous les plus larges afin de prévenir les « risques universellement inacceptables » qui pourraient résulter du déploiement de l'IA. L'objectif du groupe est de fixer ces lignes rouges d'ici fin 2026.
La proposition a recueilli à ce jour plus de 200 signatures d'experts du secteur, de dirigeants politiques et de lauréats du prix Nobel. L'ancienne présidente irlandaise, Mary Robinson, et l'ancien président colombien, Juan Manuel Santos, y ont adhéré, tout comme les lauréats du prix Nobel Stephen Fry et Yuval Noah Harari. Geoffrey Hinton et Yoshua Bengio, deux des trois hommes surnommés les « Parrains de l'IA » en raison de leurs travaux fondateurs dans ce domaine, ont également ajouté leur nom à la liste.
Mais quelles sont ces lignes rouges ? Eh bien, c'est aux gouvernements d'en décider. L'appel ne contient pas de prescriptions ni de recommandations politiques spécifiques, mais il cite quelques exemples de ce qui pourrait constituer une ligne rouge. Interdire le lancement d'armes nucléaires ou leur utilisation dans le cadre d'opérations de surveillance de masse constituerait une ligne rouge potentielle pour l'utilisation de l'IA, affirme le groupe, tandis qu'interdire la création d'IA irréversibles par intervention humaine constituerait une ligne rouge potentielle pour le comportement de l'IA. Mais les auteurs sont très clairs : ne les gravez pas dans le marbre, ce ne sont que des exemples, vous pouvez établir vos propres règles.
La seule chose que le groupe propose concrètement est que tout accord mondial devrait être construit sur trois piliers : « une liste claire d’interdictions ; des mécanismes de vérification solides et vérifiables ; et la nomination d’un organisme indépendant établi par les Parties pour superviser la mise en œuvre. »
Les détails, cependant, relèvent de l'accord des gouvernements. Et c'est là que réside la difficulté. L'appel recommande aux pays d'organiser des sommets et des groupes de travail pour régler tout cela, mais de nombreuses motivations concurrentes sont certainement en jeu dans ces discussions.
Les États-Unis, par exemple, se sont déjà engagés à ne pas autoriser l'IA à contrôler les armes nucléaires (un accord conclu sous l'administration Biden, donc Dieu sait si cet accord est toujours d'actualité). Mais des rapports récents indiquent que certains membres des services de renseignement de l'administration Trump sont déjà irrités par le fait que certaines entreprises d'IA refusent de les laisser utiliser leurs outils à des fins de surveillance nationale . Alors, l'Amérique accepterait-elle une telle proposition ? Peut-être le saurons-nous d'ici fin 2026… si nous tenons jusque-là.
gizmodo