La nouvelle loi japonaise sur l'IA est une leçon pour les États-Unis et l'UE

Le 4 juin 2025, une loi japonaise sur l'intelligence artificielle a été promulguée, et son titre indique déjà clairement le choix politique de Tokyo : Jinkō chinō kanren gijutsu no kenkyō kaihatsu oyobi katsuyō no suishin ni kansuru hōritsu (Loi sur la promotion de la recherche, du développement et de l'utilisation des technologies liées à l'intelligence artificielle). Contrairement à l'Union européenne, bloquée par l'application d'un principe de précaution non ancré dans des éléments objectifs et mesurables, le Japon a fait un choix extrêmement pragmatique et conscient : ne pas « réglementer l'IA » — quoi que cela signifie — mais améliorer ce qui est nécessaire pour construire les technologies nécessaires à son fonctionnement.
En bref, là où l’UE applique le frein à main sur une voiture garée avec le moteur éteint pour l’empêcher de se retourner, le Japon s’assure de construire des routes efficaces pour arriver à destination plus rapidement et mieux.
« Par le passé », explique l'observatoire Keiyaku Watch , « l'UE a promu l'adoption d'une loi dite « dure », l'AI Act, établissant des règles strictes pour les types d'IA considérés comme à haut risque. En réponse, les États-Unis, craignant qu'un tel choix ne freine l'innovation… se sont coordonnés avec le Japon et d'autres pays pour adopter une approche réglementaire fondée sur le droit souple. » Cependant, l'approche de l'UE et le passage à une approche « légaliste » imposé par le décret exécutif sur l'IA de l'administration Biden ont convaincu le Japon de poursuivre sur la voie du droit souple. »
L'accent est mis sur la recherche appliquée et la concurrence internationaleL'article 3 vise précisément à poser les bases du développement de l'IA, conscient que la concurrence dans ce secteur ne connaît pas de frontières. Cette règle a donc été créée dans le but d'améliorer la compétitivité internationale des secteurs industriels – et il convient de souligner le mot « industriel » – liés à l'IA.
Parallèlement, une brève parenthèse, apparemment placée là par hasard, souligne l'importance de la recherche et du développement dans les secteurs liés à l'IA pour la sécurité nationale. L'importance de cette parenthèse réside dans le fait que, sans aucune hypocrisie comparée au débat occidental, elle reconnaît sans dissimulation que les technologies liées à l'IA peuvent et doivent être utilisées pour la défense du pays (il convient de rappeler que le Japon, en raison du caractère pacifiste de sa Constitution, ne peut disposer d'une armée dotée de capacités offensives).
La transparence technologique comme outil de prévention des activités illicitesMême la question des usages illicites ou qui portent atteinte au cours régulier de la vie de la nation est gérée de manière structurelle et non avec une myriade d’articles qui réglementent des cas individuels, avec le risque de se retrouver face à des événements imprévus qui ne peuvent être gérés en l’absence d’une règle spécifique.
Le choix politique incarné par la loi a été de privilégier avant tout la transparence dans toutes les phases du cycle de recherche, de développement et de déploiement de toutes les technologies liées à l’IA.
Ce choix mérite d’être approfondi car, contrairement au règlement de l’UE sur l’intelligence artificielle, il n’impose pas d’obligations d’« explicabilité » impossibles à atteindre, mais crée les conditions pour que ceux qui doivent le faire, et qui ont développé les compétences nécessaires, puissent vérifier ce qui a été fait, comment et par qui.
En d'autres termes, imposer par la loi l'« explicabilité » de l'IA impliquerait d'en définir le niveau. Quel devrait être le point de référence pour mesurer l'explicabilité ? Celui d'un chercheur travaillant dans une géante du numérique ? Celui d'un diplômé en mathématiques ? Ou celui d'un citoyen ordinaire, titulaire d'un baccalauréat ?
Au contraire, l’obligation de transparence signifie, de manière beaucoup plus pragmatique, permettre aux sujets qualifiés d’accéder à toutes les informations nécessaires pour comprendre ce qui a causé des dommages à des particuliers ou des attaques contre des institutions.
Le schéma des devoirs publics, privés et individuelsL’approche dite « architecturale » de la loi sur la promotion des technologies liées à l’IA divise les devoirs et responsabilités en trois domaines.
Contrairement à la législation européenne, la législation japonaise exige de toutes les parties prenantes une collaboration pour atteindre l'objectif affiché, à savoir le leadership technologique. Par conséquent, les administrations publiques centrales et locales devront utiliser l'IA pour améliorer leur efficacité ; les universités devront promouvoir activement la recherche et la diffusion des résultats obtenus, ainsi que constituer une base de connaissances large et solide, en coopération avec l'État et les administrations. De même, le secteur privé devra améliorer l'efficacité de ses processus et créer de nouvelles industries grâce aux technologies liées à l'IA ; et les citoyens devront cultiver l'intérêt pour ces technologies.
Au sommet, il revient à l’État de prendre les mesures nécessaires pour que tous les acteurs évoluent de manière coordonnée sur cette scène technologique sans se gêner les uns les autres et sans entraver les performances individuelles.
Le rôle du Premier ministre dans la mise en œuvre de la stratégieL'approche stratégique de cette loi se traduit par l'attribution au Naikaku – le Cabinet du Premier ministre – des pouvoirs et fonctions de coordination et de contrôle de la mise en œuvre des objectifs réglementaires. Cela se traduit par la création de ce que l'on pourrait assimiler en Italie à un département de la présidence du Conseil, auquel tous les autres organismes publics, y compris les administrations et agences indépendantes, doivent fournir des avis, des éclaircissements et la coopération nécessaire.
Accès à l'infrastructure technologique et aux ensembles de donnéesUn aspect extrêmement intéressant de la loi japonaise sur l’IA est l’obligation de partager les installations et les équipements — c’est-à-dire les centres de supercalcul, les réseaux de télécommunications, etc. — mais surtout les ensembles de données à mettre également à la disposition du secteur privé.
Ceci, alors qu’en Occident — peut-être à l’exception de l’Italie, qui dans le projet de loi sur l’IA propose un compromis au nom de l’intérêt public — nous n’avons pas encore réussi à trouver une solution pour équilibrer, d’une part, les intérêts des titulaires de droits d’auteur et les revendications de contrôle (anti-historiques) des autorités nationales de protection des données et, d’autre part, la nécessité d’accéder aux ressources nécessaires à la construction de modèles pour l’apprentissage automatique et l’IA.
Le rôle géopolitique de la connaissance et l’importance de la formationLes différences entre le droit japonais et l’approche suivie par l’Union européenne sont également évidentes en ce qui concerne le développement des connaissances et de la formation.
Le Japon reconnaît clairement l'importance de développer une base de connaissances nationale , c'est-à-dire indépendante des brevets et de la propriété intellectuelle étrangère, et, par conséquent, la nécessité de développer la formation aux technologies liées à l'IA à tous les niveaux. Par conséquent, non seulement dans le domaine de la recherche scientifique, mais aussi dans ceux où les résultats devront être utilisés.
L'importance de la vision stratégiqueAucun plan ne résiste à l'impact d'une bataille, dit un aphorisme souvent utilisé par le général von Moltke, mais cela ne signifie pas que la planification soit erronée ou impossible. C'est précisément l'approche qui ressort de la définition de la loi japonaise sur l'IA, fondée sur la conscience qu'il est absurde d'enfermer l'évolution technologique dans des règles, mais qu'il est au contraire nécessaire de créer un écosystème permettant d'orienter son développement en adoptant les corrections nécessaires au cas par cas.
Peu importe que cette approche soit le fruit d'une « vision politique » ou la conséquence de la nécessité de compenser les déficiences résultant du déclin et du vieillissement de la population par l'automatisation. En réalité, elle représente une troisième voie par rapport à la voie américaine fondée sur le principe « mieux vaut s'excuser que d'être autorisé » et à celle de l' UE, incapable de se libérer du dirigisme bureaucratique , malgré des tentatives répétées .
Il est trop tôt pour dire laquelle de ces approches sera couronnée de succès, même si les effets (négatifs) des deux premières sont déjà évidents. Aux États-Unis, les géants du numérique réclament l'assouplissement des restrictions d'accès aux données relatives aux œuvres protégées par le droit d'auteur (sous réserve de litiges juridiques comme celui suscité par le New York Times pour l'exploitation illicite de ses articles) et ont lancé une vaste campagne pour obtenir le consentement (ou la non-opposition) des utilisateurs à la réutilisation de leurs données .
L’Union européenne produit des actes d’application fastidieux du règlement sur l’IA, annulant une approche vertueuse qui utilise les règles pour soutenir la recherche, qui est de plus — dans la pratique — essentiellement incitée par un effet de levier économique .
À cet égard, s'il est vrai que le contrôle des technologies d'IA est un élément fondamental pour le développement des États membres et l'acquisition de l'autonomie politique de l'Union européenne, une critique sévère de ses choix s'impose. Non pas parce qu'ils sont nécessairement erronés, mais parce qu'ils sont interprétés à la lumière du pragmatisme et non à travers des déclarations de principe non étayées par la comparaison avec la réalité, mais avec la prétention de la contourner.
La Repubblica