Le Royaume-Uni veut exporter son modèle de réglementation de l'IA, mais il est peu probable que le monde le veuille
Professeur de droit économique et codirecteur du Centre for Global Law and Innovation, Université de Bristol
Albert Sanchez-Graells a reçu un financement de la British Academy. Il est l'un des boursiers de mi-carrière 2022 de l'Académie (MCFSS22 \ 220033, 127 125,58 £). Ses recherches et ses opinions ne sont cependant pas attribuables à la British Academy.
L'Université de Bristol fournit un financement en tant que partenaire fondateur de The Conversation UK.
Voir tous les partenaires
Les récentes affirmations selon lesquelles l'intelligence artificielle (IA) constitue une menace existentielle pour l'humanité semblent avoir poussé le Premier ministre Rishi Sunak à l'action. Bien qu'il soit considéré comme ayant une position "pro-technologie", il semble changer rapidement de position.
Le Center for AI Safety a récemment fait de l'atténuation du risque d'extinction de l'IA une priorité mondiale. Dans ce contexte de prudence, Sunak voudrait maintenant que le Royaume-Uni mène le développement de garde-fous pour réguler la croissance de l'IA.
Lors d'un voyage aux États-Unis, Sunak devait tenter de persuader le président américain Joe Biden que le Royaume-Uni devrait jouer un rôle de premier plan dans les directives mondiales sur l'IA, présentant le Royaume-Uni comme la plaque tournante idéale pour la réglementation de l'IA. Il semble avoir rencontré un succès limité. Alors, les arguments en faveur de cela sont-ils suffisamment solides pour convaincre les États-Unis et d'autres dirigeants mondiaux ?
Une partie du discours anticipé est que "le Royaume-Uni pourrait promouvoir un modèle de réglementation qui serait moins" draconien "que l'approche adoptée par l'UE, tout en étant plus strict que n'importe quel cadre aux États-Unis". Cela risque de soulever des sourcils et d'ébouriffer certaines plumes.
Cela s'explique en partie par le fait que l'approche "fondée sur des principes" du Royaume-Uni peut difficilement être considérée comme rigoureuse. Dans son livre blanc de mars 2023, le gouvernement britannique a présenté son "approche pro-innovation" de la réglementation de l'IA. Les livres blancs sont des documents politiques énonçant des plans pour la future législation. Les plans ont été critiqués pour être trop laxistes, déjà obsolètes et manquant de détails significatifs.
Même l'Information Commissioner's Office (ICO), l'un des régulateurs britanniques concernés par le livre blanc, n'a pas tardé à souligner ses lacunes. Dans cette optique, il ne semble pas être un candidat de choix pour l'exportation réglementaire.
De plus, les États-Unis et l'UE font des progrès significatifs dans la coordination de leurs approches en matière de réglementation technologique. Pas plus tard que la semaine dernière, ils ont lancé trois groupes d'experts conjoints pour faire avancer leur feuille de route commune sur l'IA de décembre 2022. On ne sait pas ce que le Royaume-Uni apporterait à cette table.
Enfin, d'autres acteurs majeurs ont un bilan beaucoup plus crédible en matière d'IA et de régulation numérique. L'UE est sur le point d'achever le processus législatif de sa loi sur l'IA, lancé en 2021. Cela lui donnera un avantage de premier arrivé dans la bousculade pour se positionner pour faire avancer une norme mondiale pour la réglementation de l'IA.
Le Japon a développé une approche fondée sur des principes de la réglementation de l'IA en 2019, qui offre une alternative claire au cadre similaire du Royaume-Uni. Alors que la communauté internationale semble toujours accepter que le Royaume-Uni puisse dépasser son poids en matière de technologie, il est loin d'être clair s'il lui confierait les clés de la réglementation mondiale de l'IA.
La tentative de Rishi Sunak de placer le Royaume-Uni en tant que plaque tournante de la réglementation de l'IA pourrait également être considérée comme une mesure calculée pour stimuler le secteur technologique du pays, que le Premier ministre a promu avec optimisme. Cela ressort clairement du lancement en mars 2023 de la Foundation Model Taskforce. Avec un budget de 100 millions de livres sterling et la mission "d'assurer des capacités souveraines et une large adoption de modèles de base sûrs et fiables", c'est la poussée du Premier ministre pour le développement d'un "ChatGPT britannique".
Un pays investi dans la promotion du développement de « l'IA britannique » et rattrapant les géants américains et chinois de l'IA pourrait être considéré comme essayant de s'assurer une position avantageuse dans la course à la réglementation de l'IA. Cela aiderait à orienter le développement de normes mondiales d'IA de manière à soutenir la stratégie numérique du Royaume-Uni, plutôt que de s'inquiéter véritablement des menaces existentielles douteuses de l'IA.
Ces "préoccupations fantaisistes" ont été facilement rejetées et les experts conviennent qu'elles n'ont pas été étayées par des preuves. Les experts sont unis sur le fait que le risque que l'IA anéantisse l'humanité soit "proche de zéro" et ont rejeté les "récits catastrophiques" avancés par l'industrie technologique. Des études antérieures sur les risques existentiels liés à l'IA ont montré qu'ils dépendent de l'utilisation ou de l'abus humain de l'IA.
Il n'y a eu aucune percée suggérant un nouveau besoin de réglementation. Le revirement soudain du Premier ministre pourrait facilement être lu comme une intervention opportuniste pour repositionner le Royaume-Uni sur la scène mondiale de l'IA, car l'approche actuelle "pro-innovation" est clairement décalée.
La sincérité des préoccupations à l'origine de cette décision est également remise en question par le fait que l'approche du Royaume-Uni en matière de réglementation de l'IA a systématiquement mis de côté l'importance de s'attaquer aux risques très réels et actuels posés par l'IA - tels que la discrimination algorithmique ou les impacts environnementaux - que les experts d'accord devrait être l'objectif principal de la réglementation.
Certaines des manières dont le Royaume-Uni cherche à générer un dividende numérique du Brexit constituent de sérieuses menaces pour les droits individuels, comme dans le projet de loi sur la protection des données et l'information numérique (n° 2) actuellement en discussion au Parlement. Cela va à l'encontre d'une véritable volonté de mettre en place des garde-fous adéquats pour protéger le public des dommages liés à l'IA.
Donc, dans l'ensemble, le boîtier semble faible. Cependant, la réglementation de l'IA ne sera pas triée en une seule fois. Si le Royaume-Uni veut jouer un rôle de premier plan à l'avenir, il ferait bien de mettre de l'ordre chez lui. Réviser sérieusement le livre blanc de mars 2023 et le projet de loi sur la protection des données et l'information numérique (n°2) serait un bon point de départ.
Ce n'est qu'en mettant en œuvre des protections efficaces et en prenant des mesures fortes et décisives au niveau national que le gouvernement britannique peut espérer renforcer la crédibilité nécessaire pour diriger les efforts internationaux de réglementation de l'IA.
Le Royaume-Uni veut exporter son modèle de réglementation de l'IA, mais il est peu probable que le monde le veuille