Régulation de l’IA : faut-il préférer le pragmatisme américain à la bureaucratie européenne ?
Face aux craintes suscitées par l’Intelligence artificielle (IA), l’Europe vient d’adopter un règlement posant un cadre très rigide. Me Pierre-Eugène Burghardt estime pour sa part que le modèle américain est plus pertinent. Explications.

Phénomène devenu fait de société, l’intelligence artificielle est sortie des romans d’anticipation et des films de science-fiction pour s’imposer dans tous les domaines qu’ils soient juridiques, sociétaux ou environnementaux. L’application de cette révolution aujourd’hui, sans limites, suscite des peurs légitimes, à l’instar des craintes émises par le prix Nobel de physique John Hopfield(1).
Conscients de ces inquiétudes, l’Europe et les États-Unis ont entrepris de poser les bases essentielles d’une régulation de l’IA.
Le 13 juin 2024, la Commission européenne a adopté un très long règlement n°2024/1689 de 144 pages relatif à la conception et à la mise en œuvre de l’intelligence artificielle (2).
Pensé comme un cadre rigide, le texte européen a pris le parti de définir, pour chaque catégorie d’intelligence artificielle, des exigences réglementaires propres : les systèmes dits à « haut risque » utilisés pour le profilage ou dans le domaine de la santé (art.6) font ainsi l’objet d’un contrôle renforcé, notamment humain, visant à « détecter et traiter les anomalies, les dysfonctionnements et les performances inattendues » (art.14).
Une régulation européenne tentée par le mirage de l’exhaustivité
Le règlement prévoit également un certain nombre d’obligations de conformité et d’informations qui peuvent engager la responsabilité des mandataires (art.22), des importateurs (art.23), des distributeurs (art.24) ou des déployeurs (art.26). Afin d’en assurer l’effectivité, le législateur européen a mis en place un volet de sanctions aux articles 99 à 101 qui disposent, par exemple, que l’absence de respect des dispositions relatives aux pratiques interdites en matière d’intelligence artificielle (art.5) fait encourir 35 millions d’euros d’amende pour une personne physique ou 7% de son chiffre d’affaires annuel mondial lorsqu’il s’agit d’une personne morale.
En optant pour la voie de la régulation extensive avec notamment la création d’un bureau de l’IA (art.64), d’un comité de l’IA (art.65 et 66), d’un groupe scientifique d’experts indépendants (art.68) et d’un forum consultatif (art.67), la Commission européenne a fait le choix manifeste de confier le contrôle de l’intelligence artificielle à une ingénierie bureaucratique dont il est à douter de son efficacité (on ne reviendra pas sur le marquage CE de l’intelligence artificielle qui démontre une lubie réglementaire…). Le contrôle humain et la lourde chaîne de transmission entre les États membres, pour une technologie qui se veut instantanée et apprenant à un rythme exponentiel, risque de montrer rapidement ses limites.
De l’autre côté de l’Atlantique, et plus spécifiquement en Californie, l’initiative SB-1047 d’inspiration européenne (3), était une tentative intéressante d’apporter une réponse législative souple à un phénomène défiant – par son évolution – l’existence d’une régulation. Promise à s’appliquer dans un État où les principaux acteurs de l’intelligence artificielle ont leurs sièges, la censure par le Gouverneur de Californie, le 29 septembre 2024, après une intensive campagne de lobbying, est à déplorer. D’une dizaine de pages, ce projet de loi se révélait en effet plus lucide et sobre que la production de la Commission européenne.
La loi américaine se concentrait sur les risques
À l’inverse de la tentation de l’exhaustivité face à une technologie pourtant en perpétuelle évolution, la loi SB-1047 avait pour objectif clair de se concentrer sur les éventuels risques que pourraient engendrer l’emploi de l’intelligence artificielle. Anticipant sur ses développements, cette loi ciblait les dernières évolutions de l’IA et de technologies en gestation comme les modèles dits « couverts ». Futur de l’intelligence artificielle, ces derniers disposeraient d’une puissance de calcul supérieure à 10*26 FLOP (unité de mesure servant à déterminer la puissance de calcul par seconde) ce qui les rendraient par nature difficiles, voire impossibles à réglementer en raison du dépassement du seuil de compréhension humain sur lequel se base pourtant la législation européenne. La loi SB-1047 prévoyait également un certain nombre d’obligations relatives à la transparence, la possibilité pour l’Attorney General de poursuivre les entreprises d’intelligence artificielle dans l’hypothèse de dommages excédant 500 millions de dollars (environ 450 millions d’euros) ou encore, et c’est sans doute le plus important, la création d’une procédure permettant de débrancher à tout moment une intelligence artificielle jugée dangereuse.
À beaucoup d’égards donc, le texte californien apparaissait comme une mise à jour réfléchie, débarrassée de la rigidité européenne. Cet alignement de règlementation aurait permis d’enrayer la thèse d’un travail législatif comme frein à l’innovation. Cette rhétorique critiquable, reprise par le président de la République à l’occasion de l’adoption de ce règlement européen (4), continuera, dans le prolongement du veto californien, de prospérer et d’accroître les risques d’un développement exponentiel et incontrôlé de l’intelligence artificielle. Il est à craindre que l’Europe mue par sa rigidité bureaucratique et son envie d’exhaustivité ait pris le risque, au jour de sa mise en application au 2 août 2026, de voir son règlement dépassé tant dans sa conception que dans sa mise en œuvre car, comme on le sait, qui trop embrasse mal étreint.
(1) « En tant que physicien, je suis très troublé par quelque chose qui n’est pas contrôlé, quelque chose que je ne comprends pas assez bien pour savoir quelles sont les limites que l’on peut imposer à cette technologie » – Le Monde du 9 octobre 1924.
(2) Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle.
(3) SB-1047 Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.
(4) « Moi, je pense que ce n’est pas une bonne idée et je le dis en toute honnêteté. Donc, il faudra l’évaluer », Emmanuel Macron tacle la régulation de l’Europe sur l’IA – Le Figaro, 11 décembre 2023.
Référence : AJU475286
