Les États-Unis, le Royaume-Uni et l'UE signent le traité de haut niveau sur la sécurité de l'IA du Conseil de l'Europe

Nous ne sommes pas encore très proches des détails sur la manière dont les réglementations en matière d'IA seront mises en œuvre et assurées, mais aujourd'hui, un groupe de pays, dont les États-Unis, le Royaume-Uni et l'Union européenne, ont signé un traité sur la sécurité de l'IA établi par le Conseil de l'Europe (COE), une organisation internationale de normes et de droits de l'homme.

La Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit - tel est le nom formel du traité - est décrite par le COE comme "le premier traité international juridiquement contraignant visant à garantir que l'utilisation des systèmes d'IA est pleinement conforme aux droits de l'homme, à la démocratie et à l'État de droit".

Lors d'une réunion aujourd'hui à Vilnius, en Lituanie, le traité a été officiellement ouvert à la signature. Outre le trio mentionné des grands marchés, d'autres signataires incluent Andorre, la Géorgie, l'Islande, la Norvège, la République de Moldavie, Saint-Marin et Israël.

La liste signifie que le cadre du COE a attiré un certain nombre de pays où certaines des plus grandes entreprises d'IA du monde ont leur siège social ou sont en train de construire des opérations substantielles. Mais peut-être tout aussi important sont les pays qui n'ont pas encore été inclus : aucun en Asie, au Moyen-Orient, ni en Russie, par exemple.

Le traité de haut niveau vise à se concentrer sur la manière dont l'IA interagit avec trois domaines principaux : les droits de l'homme, qui comprennent la protection contre l'abus de données et la discrimination, et garantir la confidentialité ; protéger la démocratie ; et protéger l'"État de droit". Essentiellement, ce dernier engage les pays signataires à mettre en place des régulateurs pour se protéger contre les "risques liés à l'IA". (Il ne spécifie pas quels pourraient être ces risques, mais il s'agit également d'une exigence circulaire faisant référence aux deux autres domaines principaux qu'il aborde.)

L'objectif plus spécifique du traité est aussi ambitieux que les domaines qu'il espère aborder. "Le traité fournit un cadre juridique couvrant l'ensemble du cycle de vie des systèmes d'IA", note le COE. "Il favorise les progrès et l'innovation en matière d'IA, tout en gérant les risques qu'elle pourrait poser pour les droits de l'homme, la démocratie et l'État de droit. Pour résister à l'épreuve du temps, il est neutre sur le plan technologique."

(Pour information : le COE n'est pas une entité législatrice, mais a été fondé à la suite de la Seconde Guerre mondiale avec pour fonction de défendre les droits de l'homme, la démocratie et les systèmes juridiques de l'Europe. Il rédige des traités qui sont juridiquement contraignants pour ses signataires et les applique ; par exemple, il est l'organisation derrière la Cour européenne des droits de l'homme.)

La réglementation de l'intelligence artificielle a été un sujet brûlant dans le monde de la technologie, ballotté parmi un réseau complexe d'intervenants.

Divers organismes de réglementation en matière de concurrence, de protection des données, de finances et de communications - peut-être en pensant à la manière dont ils ont échoué à anticiper d'autres innovations technologiques et problèmes - ont pris quelques premières mesures pour tenter de définir la manière dont ils pourraient mieux saisir l'IA.

L'idée semble être que si l'IA représente un changement colossal dans la façon dont le monde fonctionne, si elle n'est pas surveillée attentivement, tous ces changements ne seront peut-être pas tous positifs, il est donc important d'être proactif. Cependant, il y a aussi clairement une nervosité parmi les régulateurs quant à l'idée de franchir la ligne et d'être accusés de freiner l'innovation en agissant trop tôt ou en appliquant un cadre trop large.

Les entreprises d'IA se sont également immiscées tôt pour proclamer qu'elles aussi sont tout aussi intéressées par ce qui est désormais décrit comme la sécurité de l'IA. Les cyniques décrivent l'intérêt privé comme une captation réglementaire ; les optimistes pensent que les entreprises ont besoin de sièges à la table réglementaire pour mieux communiquer sur ce qu'elles font et sur ce qui pourrait arriver ensuite pour informer des politiques et de l'élaboration de règles appropriées.

Les politiciens sont également toujours présents, soutenant parfois les régulateurs, mais parfois adoptant une position encore plus favorable aux entreprises qui centre les intérêts des entreprises au nom de la croissance des économies de leurs pays. (Le dernier gouvernement britannique est tombé dans ce camp des supporters de l'IA.)

Ce mélange a produit une variété de cadres et de déclarations, tels que ceux issus d'événements comme le Sommet sur la sécurité de l'IA au Royaume-Uni en 2023 ou le Processus sur l'IA mené par le G7 ou la résolution adoptée par l'ONU plus tôt cette année. Nous avons également vu des instituts sur la sécurité de l'IA établis dans des pays et des réglementations régionales comme le projet de loi SB 1047 en Californie, le projet de loi de l'Union européenne sur l'IA, et plus encore.

Il semble que le traité du COE espère offrir un moyen pour que tous ces efforts convergent.

“Le traité garantira que les pays supervisent son développement et s'assurent que toute technologie est gérée dans des paramètres stricts”, a noté le Ministère de la Justice du Royaume-Uni dans une déclaration sur la signature du traité. “Une fois le traité ratifié et mis en œuvre au Royaume-Uni, les lois et mesures existantes seront renforcées.”

“Nous devons nous assurer que l'essor de l'IA respecte nos normes, plutôt que de les miner”, a déclaré la Secrétaire générale du COE, Marija Pejčinović Burić, dans une déclaration. “La Convention-cadre est conçue pour garantir justement cela. C'est un texte solide et équilibré - le résultat de l'approche ouverte et inclusive par laquelle il a été rédigé et qui a permis de bénéficier de multiples perspectives d'experts.”

“La Convention-cadre est un traité ouvert avec une portée potentiellement mondiale. J'espère que ce sera le premier d'une série de signatures et qu'elles seront suivies rapidement de ratifications, afin que le traité puisse entrer en vigueur aussitôt que possible”, a-t-elle ajouté.

Alors que la convention-cadre originale a été négociée et adoptée pour la première fois par le Comité des ministres du COE en mai 2024, elle entrera formellement en vigueur “le premier jour du mois suivant l'expiration d'une période de trois mois après la date à laquelle cinq signataires, dont au moins trois États membres du Conseil de l'Europe, l'auront ratifiée”.

En d'autres termes, les pays ayant signé jeudi devront toujours ratifier individuellement le traité, puis il faudra encore trois mois avant que les dispositions ne entrent en vigueur.

Il n'est pas clair combien de temps pourrait prendre ce processus. Le Royaume-Uni, par exemple, a déclaré qu'il avait l'intention de travailler sur une législation en matière d'IA, mais n'a pas fixé de calendrier précis pour l'introduction d'un projet de loi. En ce qui concerne le cadre du COE spécifiquement, il indique seulement qu'il apportera davantage de mises à jour sur sa mise en œuvre “en temps voulu”.