L’expansion du marché de l’intelligence artificielle et la confiance en « la justice »

Publié le 02/07/2021
main d'homme tenant son téléphone à plat et au-dessus duquel figure l'icône de la balance de la justice
Production Perig / AdobeStock

Sur la liste des éléments normatifs qui fondent l’essor du marché de l’intelligence artificielle, nous retenons la croyance des justiciables en l’existence d’une protection judiciaire totale, c’est-à-dire en une réglementation à la fois complète et prescriptive s’imposant au juge.

L’essor. Le marché de l’intelligence artificielle (IA) est en expansion1. Les chiffres en témoignent. Il est estimé à plus de 36 milliards de dollars d’ici à 2025 contre 643 millions de dollars en 2016, soit une tendance à la hausse de plus de 50 % par an2. L’essor de cette économie est lié en partie à l’acquisition par des ménages de machines qui font ou ont vocation à faire « ce que l’homme ferait moyennant une certaine intelligence »3.

Pourquoi cet essor ? Qu’est-ce qui, du point de vue normatif4, justifie cette exaltation sociale autour de l’IA ? La question mérite d’être posée. Maintes fois, il a été mis en évidence, en faveur des ménages, les risques liés à l’essor de ce marché5. Le principal danger résidant dans le fait que l’intelligence artificielle fonctionne à partir d’algorithmes et de données qui peuvent faire l’objet d’un détournement ou d’un usage nocif. Pourtant, cette technologie n’a jamais autant reçu la confiance des consommateurs. Alors, qu’est-ce qui justifie cette acceptation, en partie au fondement de l’essor de l’économie de l’IA ?

L’acceptation des risques par les justiciables, une croyance en la norme. Dans le domaine normatif, une réponse qui tient à la confiance des justiciables dans le droit, ou plutôt à l’illusion d’une protection totale par le système normatif, peut être proposée. La formule sociale « je fais confiance à la justice » en est l’expression triviale. De manière juridique, il s’agit d’une confiance qui pourrait être traduite en ces termes : tout est normé, autrement dit le droit régule tous les pans de l’IA, et donc, il existerait une garantie d’efficacité de la justice en cas de préjudice subi ; toutes les normes qui ont pour objet de nous protéger contre les aspects sombres de l’IA sont prescriptives, donc obligent le juge6.

L’illusion d’une régulation complète en matière d’IA. Croire que la législation est entière dans le domaine de l’IA peut être légitime, et ce, au vu des dispositifs normatifs mis en place dans ce domaine et dont le juge peut parfaitement se servir pour rendre sa décision. Quelques exemples : la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (dite loi LIL)7, en vigueur sous une nouvelle rédaction depuis le 1er juin 20198, est la principale norme au niveau national visant à protéger les données à caractère personnel. Sur le plan européen, le règlement général de protection des données personnelles (RGPD) de 2016 encadre tous les traitements de données effectués sur le territoire de l’Union européenne ou visant un résidant européen9 ; de même, la directive Network and Information Security (NIS) adoptée le 6 juillet de la même année vise à assurer un niveau élevé commun de sécurité des réseaux et des systèmes d’information dans l’Union européenne10. Celle-ci avait fait l’objet d’une transposition par une loi de 201811.

L’existence de ces normes encourage parfois à tenir un discours rassurant sur la régulation de l’IA et laissant parfois croire à une réglementation entière et complète12. Ce discours a pour effet de mettre en confiance l’utilisateur, et donc d’encourager la ruée parfois aveugle vers les machines intelligentes. « Mais (…) la régulation de l’IA relève (…) toujours essentiellement de la fiction », du moins, elle « se révèle largement insuffisante »13. Il s’agit en général d’un « encadrement minimal »14. À tel point que le législateur avait demandé à la Commission nationale de l’informatique et des libertés (CNIL) de produire une réflexion éthique portant sur l’intelligence artificielle. Les textes sur l’IA sont parfois insuffisants du fait de leur trop grande généralité15. Ils ne recouvrent pas toutes les situations prévisibles : le champ d’application de la loi LIL et du RGPD, par exemple, ne recouvre pas tous les types de données. C’est le cas lorsque les données traitées sont anonymes16, ou lorsqu’elles concernent une « personne physique dans le cadre d’une activité strictement personnelle ou domestique »17. En outre, ces textes soulèvent de véritables questions en matière de responsabilité à propos des conflits surgissant dans l’utilisation de l’IA. La problématique liée au véhicule autonome résume les craintes que soulève l’insuffisance de cette régulation : est-il loisible d’appliquer les règles traditionnelles de la responsabilité à un cas où l’intervention de l’homme est relativement minime, notamment en cas d’accident de la circulation18 ? L’insuffisance est tellement marquante que l’idée d’établir une législation spécifique de l’IA s’est fait jour19.

L’illusion d’une régulation nécessairement prescriptive. Notre imaginaire de la norme est fortement rattaché à l’idée de prescription. Les textes, les lois, les règlements, les directives, les résolutions, les déclarations sont, pour le justiciable lambda, des prescriptions. Cela paraît logique : le justiciable ne s’applique pas à la distinction ; au contraire, il regroupe généralement tous ces textes sous l’appellation générique de « Droit ». Or, traditionnellement, le droit est perçu comme étant entièrement dur. La dureté de la loi a parfois l’avantage d’assurer une certaine sûreté, c’est-à-dire la garantie des droits20, propice au développement de l’économie. Pour autant, en matière d’IA, l’idée d’une régulation entièrement dure, qui s’impose nécessairement au juge, est une parfaite illusion. Il avait été proposé de poursuivre dans une réglementation douce en matière d’IA, c’est-à-dire « avec méthode en recourant au droit souple »21, notamment avec les standards, les chartes ou les certifications22. Aujourd’hui, la régulation de l’IA est largement imprégnée du droit souple23.

Notes de bas de pages

  • 1.
    L’expression « intelligence artificielle » fait l’objet d’au moins une contestation. Cette contestation peut être résumée à travers l’intitulé du livre de L. Julia, cocréateur de Siri, pour qui « l’intelligence artificielle n’existe pas » (L’Intelligence artificielle n’existe pas, 2019, First, Documents).
  • 2.
    Selon l’étude du cabinet d’analyse Tractica, en 2017 (Rapport de synthèse France intelligence artificielle, 2017, p. 1).
  • 3.
    Dans un rapport, la CNIL emprunte à M. Minsky sa définition de l’intelligence artificielle : « De façon large, l’intelligence artificielle peut être définie comme “la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence” », v. CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, 2017, p. 16.
  • 4.
    C’est sous l’angle normatif que nous abordons cette question qui peut trouver une réponse une sociale, professionnelle ou économique.
  • 5.
    À propos des travaux récents, quelques exemples : A. Sée, « La régulation des algorithmes : un nouveau modèle de globalisation ? », RFDA 2019, p. 830 et s. ; S. Prévost, « Du développement du numérique aux droits de l’homme Digital », Dalloz IP/IT 2019, p. 345 et s. ; G. Loiseau « La responsabilité du fait de l’intelligence artificielle », (note sous PE, résolution, 12 févr. 2019, sur une politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique (2018/2088 (INI)), Comm. com. électr. 2019, n° 4, p. 1 et s.
  • 6.
    La lacune est dès lors liée au fait qu’il existerait des normes certes, mais qui seraient sans conséquence juridique, sans véritable force juridique, v. R. Guastini, « Complétude », in A.-J. Arnaud (dir.), Dictionnaire encyclopédique de théorie et de sociologie du droit, p. 79 et s.
  • 7.
    L. n° 78-17, 6 janv. 1978, relative à l’informatique, aux fichiers et aux libertés.
  • 8.
    Cette loi a connu au moins trois modifications principales : en 1994 (par la loi n° 94-548 du 1er juillet 1994 relative au traitement de données nominatives ayant pour fin la recherche dans le domaine de la santé) ; 10 ans plus tard (par la loi n° 2004-801 du 6 août 2004 relative à la protection des personnes physiques à l’égard des traitements de données à caractère personnel) ; et en 2018 (par l’ordonnance n° 2018-1125 du 12 décembre 2018, prise en application de l’article 32 de la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles). La nouvelle rédaction de cette loi est entrée en vigueur le 1er juin 2019.
  • 9.
    PE et Cons. UE, règl. n° 2016/679, 27 avr. 2016, sur la protection des données personnelles. Sur ce règlement, lire le dossier publié par Dalloz IP/IT 2019, « RGPD, directives NIS et Police justice, Cloud Act : quelle stratégie adopter ? », n° 6 ; F. Chaltiel, « Le règlement général européen sur la protection des données », Rev. UE 2018, p. 249 ; N. Maximin, « Application du RGPD par la CNIL : précisions et amende record pour Google », Dalloz actualité, 28 janv. 2019.
  • 10.
    L’Agence nationale de la sécurité des systèmes d’information (ANSSI) pilote sa transposition en France.
  • 11.
    L. n° 2018-133, 26 févr. 2018, portant diverses dispositions d’adaptation au droit de l’Union européenne dans le domaine de la sécurité.
  • 12.
    C’est ainsi qu’un auteur écrivait : « Au stade des connaissances actuelles, il semble prématuré de modifier le cadre légal existant à même de saisir l’intelligence artificielle », M. Coulaud, « Quelle place pour l’éthique et le droit en matière d’intelligence artificielle ? 3 questions à Mathieu Coulaud, Directeur juridique, Microsoft France », Comm. com. électr. 2018, n° 1, p. 1 ; et un autre d’affirmer que « si des aménagements sont effectivement nécessaires, une refonte des règles n’apparaît pas utile en l’état actuel des perspectives », G. Loiseau « La responsabilité du fait de l’intelligence artificielle », Comm. com. électr. 2019, n° 4, p. 2.
  • 13.
    A. Sée, « La régulation des algorithmes : un nouveau modèle de globalisation ? », RFDA 2019, p. 830 et s.
  • 14.
    A. Sée, « La régulation des algorithmes : un nouveau modèle de globalisation ? », RFDA 2019, p. 835.
  • 15.
    Par exemple, le législateur avait inscrit à l’article 1er de la loi Informatique et libertés que « l’informatique doit être au service de chaque citoyen ». Il s’agit aujourd’hui, pour la CNIL, de préciser cet article et « d’établir les principes permettant d’atteindre cet objectif général et de garantir que l’intelligence artificielle soit au service de l’homme, qu’elle l’augmente plutôt que de prétendre le supplanter » : v. rapport Comment permettre à l’Homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence, CNIL, déc. 2017, p. 48, consultable à l’adresse suivante : https://lext.so/h1x802.
  • 16.
    V. par ex. RGPD, art. 4, à propos des définitions concernant les « données à caractère personnel », et la « personne physique identifiable ». Pourtant, l’anonymisation ne garantit pas une protection infaillible de la personne : v. par ex. A. Jomni, « Le RGPD : un atout ou un frein pour a cybersécurité ? », Dalloz IP/IT 2019, p. 352 et s.
  • 17.
    V. par ex. RGPD, art. 2.
  • 18.
    S’agissant de cette question, v. Rapport de synthèse. France intelligence artificielle, 2017, p. 16, consultable à l’adresse suivante : https://lext.so/03pmLE ; v. aussi, I. M. Barsan, « La voiture autonome : aspects juridiques », Comm. com. électr. 2018, n° 2, études 3, spéc. p. 5 ; v. également, M. Coulaud, « Quelle place pour l’éthique et le droit en matière d’intelligence artificielle ? 3 questions à Mathieu Coulaud, Directeur juridique, Microsoft France », Comm. com. électr. 2018, n° 1, p. 1.
  • 19.
    V. par ex., PE, résolution, 12 févr. 2019, sur une politique industrielle européenne globale sur l’intelligence artificielle et sur la robotique (2018/2088 (INI) ; G. Loiseau et A. Bensamoun, « L’intelligence artificielle : faut-il légiférer ? », D. 2017, p. 581.
  • 20.
    Il s’agit d’une conception de la sûreté empruntée notamment à J. Bentham, v. A.-J. Arnaud, A.-J. Arnaud (dir.), « Sécurité », Dictionnaire encyclopédique de théorie et de sociologie du droit, p. 544.
  • 21.
    M. Coulaud, « Quelle place pour l’éthique et le droit en matière d’intelligence artificielle ? 3 questions à Mathieu Coulaud, Directeur juridique, Microsoft France », Comm. com. électr. 2018, n° 1, p. 2.
  • 22.
    V. PE et Cons. UE, commission, 8 avr. 2019, COM/2019/168 final, renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain ; Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST), C. de Ganay et D. Gillot, Pour une intelligence artificielle maîtrisée, utile et démystifiée, t. 1, 2017, p.  206 : proposition de la réalisation d’une « charte de l’intelligence artificielle et de la robotique » ; PE, résolution, 27 janv. 2017, contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)).
  • 23.
    OPECST, C. de Ganay et D. Gillot, Pour une intelligence artificielle maîtrisée, utile et démystifiée, t. 1, 2017, p. 205 ; M. Coulaud, « Quelle place pour l’éthique et le droit en matière d’intelligence artificielle ? 3 questions à Mathieu Coulaud, Directeur juridique, Microsoft France », Comm. com. électr. 2018, n° 1, p. 1 ; S. Prévost, « Du développement du numérique aux droits de l’homme Digital », Dalloz IP/IT 2019, p. 345 et s.