Intelligence artificielle et justice : à la recherche d’un nouveau modèle éthique

Publié le 02/05/2022
Intelligence artificielle
xa3/AdobeStock

L’intelligence artificielle « est une technologie générique qui a pour vocation d’améliorer le bien-être des individus, de contribuer à une activité économique mondiale dynamique et durable, de stimuler l’innovation et la productivité, et d’aider à affronter les grands défis planétaires ». Appliquée au domaine de la justice, l’intelligence artificielle est le plus souvent associée à la justice prévisionnelle et aurait pour finalité la création d’une nouvelle forme de justice. Il va sans dire que les enjeux sont de taille et requièrent, par conséquent, un certain nombre de garanties pour pouvoir être bénéfiques à l’ensemble des citoyens. Se posent alors les questions de la réglementation existante en ce domaine et de son contenu éthique : la réglementation, les projets ou propositions de réglementation actuels sont-ils à même de répondre à ces enjeux ou au contraire subsiste-t-il encore des failles ? Auquel cas, serait-il envisageable de les résorber à l’aide de nouveaux outils (élaboration d’un nouveau modèle éthique) ? Notre étude a pour objet de répondre à ces questions.

1. Depuis ces dernières années, l’intelligence artificielle (IA)1 ne cesse de se développer : les États lui prêtent de nombreux avantages économiques et sociétaux. En effet, elle fournirait « de meilleures prédictions, en optimisant les processus et l’allocation des ressources »2 et permettrait « la prestation de services personnalisés »3. À ces dires, la promesse d’un futur meilleur, à portée de main, grâce à cette technologie serait bénéfique à tous. Pourtant, en pratique, l’IA fascine autant qu’elle suscite des craintes. Pour comprendre les raisons de l’existence de ces sentiments opposés chez les citoyens, il convient dès à présent d’éclaircir certaines notions, à commencer par l’IA. Celle-ci peut se définir comme « un ensemble de sciences, de théories et de techniques dont le but est de reproduire, par une machine, des capacités cognitives humaines afin de lui confier des tâches relativement complexes »4. Cette technologie peut se matérialiser « à travers une chose corporelle ou incorporelle comme un programme informatique »5. En ce sens, l’IA est liée aux algorithmes, qui sont un « ensemble de règles qui définit précisément une séquence d’opérations[,] de sorte que chaque règle soit effective et définie et que la séquence se termine dans un temps fini »6. Dans le domaine du droit, les méthodes de l’IA s’appuient sur des algorithmes prédictifs, qui s’insèrent dans le cadre d’un système dit de « justice prédictive » (nous pouvons mentionner Doctrine, Case Law Analytics, JurisData Analytics, Legalmetrics, Predictice, Captain contrat). Il convient de préciser, sur ce point, que les algorithmes prédictifs sont des algorithmes d’apprentissage, c’est-à-dire qu’ils sont capables d’apprendre d’eux-mêmes, en « améliorant [leur] algorithme »7. Ainsi, ils font preuve de « raisonnement autonome »8 (Deep learning, machine learning). Dans le domaine de la justice, les algorithmes prédictifs permettent « de générer un modèle prédictif basé sur un exemple validé par l’Homme »9. En général, les outils utilisant la justice prédictive sont développés par des entreprises privées nommées « legaltech »10. Ces dernières ont pour destinataires les juges, les avocats, les auxiliaires de justice, les assureurs, les arbitres ou encore les directeurs juridiques des grandes entreprises11.

2. Actuellement, les outils de justice prévisionnelle sont capables de fournir en un temps record un grand nombre d’informations : statistiques (raisonnement algorithmique12), tendances jurisprudentielles, prédictions des décisions, chances de succès, revue des documents, analyses de données, recherche de jurisprudence. Ainsi, l’on prête généralement à ces outils de justice prédictive de nombreux atouts tels que « la promotion des modes alternatifs de règlement des conflits, le désengorgement des tribunaux, la prévisibilité juridique, l’accroissement de la qualité de la justice ou encore sa célérité »13. De manière plus spécifique, ces outils permettent d’aider les acteurs de la justice dans des tâches complexes. Pour les avocats, en leur apportant une aide en matière de conseils, de stratégie, de revue de documents ou de rédaction de convention d’arbitrage ; pour les arbitres, en leur fournissant des outils intelligents « de planification d’échanges et de communications en s’appuyant sur la technologie blockchain qui permet de garantir la confidentialité et l’inviolabilité des données »14. Enfin, dans le futur, les outils de justice prédictive auraient même pour ambition de se réaliser en tant que justice prédictive cognitive. Dans cette perspective, la justice prédictive cognitive ferait appel à une « intelligence artificielle [dite] forte (…) chargée de l’application du droit »15. De ce fait, la justice prédictive cognitive aurait vocation à « se substituer à l’Homme, engendrant [ainsi] la naissance d’un “juge-robot” »16.

3. Bien que nous soyons encore loin de cette forme de justice, certains auteurs nous mettent en garde dès à présent contre le versant négatif de l’IA et des outils de justice prédictive. De manière générale, les critiques se rapportant à l’IA17 s’efforcent de mettre en évidence les éventuelles atteintes aux droits fondamentaux. Le droit au respect de la vie privée, la liberté d’expression, la liberté de circulation, la protection des données, des droits numériques ou encore des normes éthiques tel que le principe de non-discrimination sont généralement visés. D’autres commentaires questionnent également la licéité du recours à cette technologie, notamment en ce qui concerne la reconnaissance « faciale, visant à déterminer les caractéristiques (couleur de la peau, sexe, état de santé, etc.) ou affects d’une personne »18. Dans le domaine de la justice, les critiques de l’utilisation des outils de justice prédictive s’orientent dans le même sens et se concentrent donc essentiellement sur « les risques d’atteinte grave aux droits fondamentaux »19 (risques d’atteinte à l’indépendance du juge, au droit d’accès à un juge, et au droit à la protection des données à caractère personnel). Concernant plus particulièrement les bases de données de jurisprudence, certains auteurs avancent l’idée que le principal danger, sur le long terme, reposerait dans la constitution d’« une jurisprudence du fond »20, uniforme, de laquelle les juges ne voudraient pas s’écarter. Ce système les inciterait à appliquer le système dit « du précédent », utilisé par les pays de la Common law. À terme, l’IA modifierait la vision actuelle de la justice et participerait à créer une nouvelle forme de justice.

Cette brève analyse nous conduit donc au constat suivant : l’utilisation de l’IA requiert une réglementation adaptée aux enjeux d’éthique, de confiance, de gestion des risques et de responsabilité qu’elle soulève.

4. Consciente de cela, la Commission européenne a présenté le 21 avril 2021 son premier cadre juridique sur l’IA au sein de l’Union européenne. Cette proposition a pour objectif d’« asseoir une vision européenne de l’IA basée sur l’éthique en prévenant les risques inhérents à ces technologies »21, selon les domaines d’application. En droit interne, la France est également très active en ce domaine. Il est possible de citer à ce sujet la loi pour une République numérique du 7 octobre 2016. Cette loi a permis, entre autres, de mettre à disposition des citoyens, en ligne, les décisions des juridictions administratives et judiciaires grâce à l’open data22. La France a également publié la circulaire n° 6264/SG du 27 avril 2021 relative à la politique publique de la donnée, des algorithmes et des codes sources. Il s’agit là d’un bon début, mais nous pouvons nous demander si cela est suffisant. Certes, l’objectif éthique de l’IA23 doit « servir de colonne vertébrale aux technologies pour qu’elles soient jugées fiables par les individus et la société »24. Cependant, cela nécessite de bien déterminer ce que doit comprendre l’éthique et sous quelle forme elle devrait se matérialiser pour produire des effets désirables. Dès lors, les critères éthiques choisis et destinés à être développés au sein de la proposition de réglementation du Parlement européen sur l’IA sont-ils à même de répondre à ces objectifs ou, au contraire, laissent-ils subsister certaines lacunes qui, sur le long terme, empêcheraient un bon développement de l’IA ? Auquel cas, serait-il possible de combler ces lacunes à l’aide de nouveaux outils (élaboration d’un nouveau modèle éthique) ?

5. Pour répondre à ces questions, il conviendra de porter notre attention, de prime abord, sur l’analyse de travaux établie à l’échelle européenne en ce domaine (I) afin de nous permettre de déterminer si les propositions effectuées et les avancées en la matière sont aptes à résorber les difficultés auxquelles font face les États. Ensuite, si nous arrivons au constat que certaines failles subsistent, notamment par rapport au domaine de la justice, nous porterons notre attention sur la création de nouveaux outils destinés à les résorber (II). Dans tous les cas, il convient de préciser, dès à présent, que les résultats trouvés seront applicables autant aux systèmes de l’IA, compris de manière générale, qu’à ceux qui se rapportent spécifiquement au domaine de la justice.

I – L’approche horizontale de l’éthique adoptée par le Parlement européen en matière d’IA est-elle suffisante pour générer le degré nécessaire de confiance chez les citoyens ?

6. L’étude annuelle menée par l’Ifop, pour l’Académie des technologies (2020), montre qu’actuellement, les Français se méfient des nouvelles technologies. Selon le communiqué de presse en date du 10 décembre 2020, 56 % des Français sont inquiets vis-à-vis des nouvelles technologies, ce qui représente une hausse de 18 points par rapport à 201825. Les raisons de cette méfiance seraient liées à des problèmes de communication, de perception, de conceptualisation ou encore de manque de transparence et de sécurité. Pour contrebalancer ce manque de confiance, certains promeuvent l’idée d’une « utilisation consciente des nouvelles technologies par une approche multilatérale et pragmatique »26 en donnant aux utilisateurs « plus d’informations sur les services numériques, en créant davantage de transparence et en garantissant le respect des valeurs éthiques »27. D’autres prônent la mise en place de labels, à l’image du label suisse de confiance numérique28. Et les États dans tout ça ? Comme nous l’avons vu, ils sont conscients des enjeux que soulève le développement des nouvelles technologies et c’est pourquoi certaines initiatives ont été entreprises tant à l’échelle européenne que nationale.

7. À ce titre, le livre blanc publié le 19 février 202029 et le règlement du Parlement européen et du Conseil européen établissant des règles harmonisées sur l’intelligence artificielle du 21 avril 202130 prônent des objectifs et un raisonnement commun, à savoir la création d’un écosystème de confiance (élaboration d’un cadre réglementaire propre à l’IA suivant une approche horizontale de l’éthique) et d’excellence (en privilégiant la coopération entre les États membres, en ciblant les efforts de la communauté de la recherche et de l’innovation, etc.). Pour aboutir à ce résultat, le raisonnement adopté est celui de la création d’un cadre législatif unifié, respectueux des valeurs démocratiques, des droits fondamentaux (dignité humaine, protection de la vie privée) et de la sécurité des citoyens, tout au long du cycle de vie des systèmes d’IA. En ce sens, les lignes directrices du groupe d’experts se sont focalisées sur sept exigences : le facteur humain et le contrôle humain, la robustesse technique et la sécurité, le respect de la vie privée et la gouvernance des données, la transparence, la diversité, la non-discrimination et l’équité, le bien-être sociétal, environnemental et la responsabilisation. Cette logique31 permettrait de générer de la confiance chez les citoyens, les entreprises et les organismes publics et contribuerait à fournir un cadre éthique autour de l’IA (par exemple, la création d’un code de conduite pour les systèmes de l’IA – titre IX). Concrètement, pour établir et générer de la confiance chez les citoyens, le cadre législatif proposé suivrait une approche fondée sur les risques (à degré variable) dans l’utilisation de cette nouvelle technologie (risques inacceptables, élevés, limités, ou minimes).

8. Au regard de cette analyse, il nous semble que l’approche horizontale de l’éthique sur l’IA adoptée par le Parlement européen est une bonne chose, tout comme les principes mis en avant au sein du livre blanc32. Toutefois, cela est-il suffisant pour générer le degré nécessaire de confiance chez les citoyens, les entreprises et les organismes publics ? Sur ce point, notre réponse doit être nuancée. En effet, d’un côté il est certain qu’une bonne réglementation, qui favorise l’uniformisation du droit en ce domaine et qui met en avant des principes régulateurs, est essentielle. De l’autre, la démarche adoptée ne nous semble pas la plus appropriée et c’est pourquoi nous émettons ici des réserves. Afin de comprendre nos raisons, il convient dès à présent de porter notre attention sur la notion même de confiance. Dans cette étude, nous mettons en évidence la difficile conceptualisation de cette notion et nous proposons un nouvel outil pour remédier à ce problème. Enfin, nous démontrerons que l’approche éthique actuellement adoptée peut conduire à certains effets indésirables.

9. La notion de confiance peut s’analyser sous différentes facettes : c’est pourquoi de nombreux auteurs ont estimé nécessaire de l’approfondir et de la développer. De ce fait, la notion de confiance « incarnerait plutôt un ensemble de facteurs construit en couches, qui finit par former une dimension très “opaque” (“thick”) de la personnalité humaine »33. Pour d’autres, « la notion de confiance se précise (…) selon la portée qu’on veut bien lui donner »34 (éthique, conception des devoirs et obligations). Toutefois, de manière générale, lorsque la notion de confiance est appliquée au domaine du droit, elle vise un intérêt général et respectueux des droits des citoyens. C’est pourquoi la place de la confiance est primordiale dans le développement des nouvelles technologies. Cependant, au regard de nos propos précédents, il est certain que la notion de confiance est une notion confuse et difficile à appréhender. Or, ce manque de clarté peut conduire à différentes approches de l’éthique (créations d’outils, de valeurs, etc.) et donc à divers mécanismes de pensée qui, selon le domaine visé, ne sont pas forcément les plus appropriés. Ainsi, clarifier la conceptualisation de la notion de confiance pourrait remédier à cette difficulté. C’est sur ce point que nous allons nous concentrer à présent.

10. Dans cette perspective, il serait intéressant d’élaborer un système (établi à l’aide d’un algorithme) permettant de visualiser la notion de confiance sous forme de jauge35 que nous pourrions intituler, par exemple, « baromètre de la confiance des citoyens dans l’IA ». Sommairement, au sens de notre proposition, la création d’un baromètre de confiance permettrait d’évaluer, en fonction de critères prédéfinis (selon un degré d’application plus ou moins souple) et d’un domaine choisi (ici, l’IA appliqué au domaine de la justice), le degré de confiance des citoyens, des entreprises et des organismes publics en ce domaine. Ainsi, selon le résultat figurant dans la jauge, nous pourrions savoir s’il serait envisageable de poursuivre le développement de cette technologie ou au contraire, s’il serait justifié de revoir certains critères (en modifiant son degré d’application) ou d’en élaborer de nouveaux. Enfin, si malgré tous ces efforts et modifications, les résultats obtenus étaient négatifs, il serait souhaitable de s’interroger sur le bien-fondé de la démarche adoptée. En ce sens, un seuil de confiance minimale en-dessous duquel une révision des critères choisis serait nécessaire pourrait être fixé. Ainsi, le baromètre de confiance aurait pour avantage d’évaluer concrètement le degré de confiance chez les citoyens, de visualiser plus facilement ses évolutions au fil des années mais aussi d’établir des pronostics. En effet, en fonction des résultats obtenus, des simulations seraient réalisables, notamment en modifiant certains critères ou en faisant varier le degré d’application des critères.

11. En conclusion de ce point, nous commencerons par saluer l’initiative du Parlement européen pour avoir élaboré un premier cadre juridique sur l’IA. Toutefois, après une étude générale de la proposition, nous avons mis en évidence certains points de difficulté relatifs au manque de confiance des citoyens en ces technologies. C’est pourquoi nous pensons que la proposition actuelle gagnerait à être complétée. Selon nous, certaines données n’ont pas été assez approfondies (facteur temporel) ou tout simplement n’ont pas été traitées (éthique partagée, interdépendance, vision à long terme). Aussi, pour résoudre ce problème, il conviendrait de repenser le modèle éthique à partir de nouveaux critères afin de créer un chemin éthique conceptualisable. C’est ce que nous nous proposons d’approfondir à présent.

II – Proposition d’élaboration d’un modèle éthique fondé sur de nouveaux critères : « temps incompressible », « vision à long terme » et « interdépendance »

12. Sur la base des critères posés par le Parlement européen dans sa proposition d’un règlement propre à l’IA et de notre hypothèse consistant à établir un baromètre de la confiance des citoyens dans l’IA (applicable au domaine de la justice) sous forme de jauge, nous pensons qu’il conviendrait d’établir un nouveau modèle éthique basé sur de nouveaux critères, auxquels nous ajouterions ceux qui existent déjà. L’objectif recherché par ce nouveau modèle éthique serait de traiter, en adoptant un angle différent (sur la base d’un nouveau mécanisme de pensée), les divers points de blocage faisant obstacle aux développements de l’IA (manque de confiance, gestion des risques, responsabilité, etc.) en fournissant des clés permettant de résorber ces difficultés.

13. Au sens de notre proposition, l’élaboration d’une réglementation spécifique à l’IA reposerait sur la prise en compte d’un modèle éthique global qui comprendrait un certain nombre de critères. Le premier d’entre eux se rapporterait au facteur « temps ». En effet, lorsque la question de l’IA est abordée, la notion de temps intervient sous deux perspectives. D’abord, elle s’attache au problème du retard du droit sur l’innovation de l’IA. En effet, cette dernière, comme toutes les nouvelles technologies, est soumise à une évolution constante. Or cette évolution technologique est porteuse d’innovation, et, par conséquent, « le droit intervient a posteriori étant donné que les effets des nouvelles technologies sont difficilement prévisibles en amont par manque de connaissance du juriste et/ou du concepteur »36. Dès lors, pour remédier au retard du droit sur l’innovation de l’IA, il faudrait procéder à une « synchronisation »37 entre le droit et l’innovation de l’IA. Cette synchronisation pourrait être obtenue si l’innovation technologique et la réglementation lui étant attachée étaient orientées vers une éthique protectrice dite du « temps incompressible » (proposition doctrinale) incombant à chaque être humain (une éthique partagée). Cela nous amène à l’étude de la seconde perspective en lien avec la notion de temps.

14. Elle se rapporte à un « sentiment généralisé d’une accélération du temps »38 face aux évolutions de l’IA qui, comme l’ensemble des nouvelles technologies, nous donne l’impression que tout doit être fait au mieux et au plus vite. Bien entendu, « le temps réel ne se compresse ni ne se contracte, il ne s’accélère pas »39. En réalité, c’est « l’injonction à remplir au maximum les espaces de temps qui donne le sentiment d’une accélération : le bourrage du temps est la cause de l’impression de son accélération »40. Or il convient de remédier à cette conception du temps et de comprendre que l’IA doit avoir pour finalité de faciliter le travail de l’Homme, de venir à son soutien, sans pour autant lui demander davantage au prétexte qu’il aurait « gagné » du temps grâce à l’IA. Pour contrer ce phénomène de « bourrage du temps », nous prendrons en compte deux critères : le « temps incompressible » et la « vision à long terme ». Le premier critère est primordial, puisqu’il constitue une sorte de frontière entre les actions qualifiées d’indispensables (dormir, boire, manger, etc.) et les actions dites secondaires (ce sont sur ces actions que le bourrage du temps intervient). Dans nos sociétés actuelles, les actions indispensables qui ont une portée à long terme sont souvent délaissées au profit des actions secondaires, qui progressivement rythment davantage nos vies. Ces dernières ont souvent une portée à court terme. Or cette primauté des actions secondaires sur les actions indispensables est à l’origine de ce bourrage du temps et peut nous conduire, sur le long terme, à avoir une mauvaise appréhension du temps. En effet, « il y a une différence entre le temps vécu et le temps objectif »41, et, par conséquent, cela pourrait nous conduire à approcher d’une mauvaise manière le chemin que doit emprunter l’éthique dans l’innovation technologique. Au risque de simplifier, nous pouvons dire qu’en croyant faire bien, nous ferions mal. Actuellement, toutes les décisions éthiques sont prises en fonction d’un raisonnement humain qui fait primer les actions secondaires sur les actions indispensables et non en fonction d’un raisonnement humain recherchant un équilibre entre ces deux types d’action. Pour déterminer les composantes d’un tel équilibre, un dialogue multidisciplinaire s’imposerait. Cependant, une fois cette conversation terminée, une synchronisation entre le droit et l’innovation technologique, et donc les systèmes de l’IA, serait envisageable.

15. À partir de là, de nouveaux outils éthiques pourraient alors être élaborés. Sur cette base, la confection des systèmes de l’IA, devrait prendre en compte ce nouveau raisonnement éthique afin de garantir cet équilibre (sur la base du critère de temps incompressible). Une fois le résultat obtenu, il conviendrait enfin de vérifier la capacité de l’innovation à conserver dans le temps une ligne éthique stable. Cela nous conduit à l’étude de notre second critère. En effet, comme nous l’avons vu, « les individus étant constamment incités à préférer le changement à la constance, l’évanescence à la pérennité »42, cela rend impossible l’élaboration de principes éthiques de l’IA pouvant s’appliquer sur le long terme. C’est ainsi que le professeur Zygmunt Bauman décrit notre « modernité liquide », précisant qu’à « l’état liquide, rien n’a de forme fixe, tout peut changer »43. Or, à l’aide de notre premier critère, qui est le temps incompressible, conjugué à une analyse sur le long terme, ces difficultés pourraient être surmontées. En effet, l’analyse à long terme de principes éthiques dédiés à l’IA impliquerait d’anticiper les difficultés et de s’adapter au mieux aux éventuelles mutations technologiques. Cela permettrait de faire des choix éthiques éclairés. Finalement, nous pourrions obtenir une éthique partagée de l’IA « fondée sur les notions d’interdépendance (…) de coresponsabilité et de liberté. L’éthique partagée se voudrait donc une éthique concrète et accessible »44 comprenant les différents facteurs d’influence temporels des systèmes de l’IA sur l’Homme. De cette manière, il serait plus aisé de déterminer avec précision ce vers quoi doit tendre l’IA (par ce biais, certains risques seraient naturellement écartés). Ainsi, notre proposition aurait vocation à s’appliquer de manière générale à tous les systèmes de l’IA, y compris à ceux qui s’intéressent au domaine de la justice. Enfin, en suivant une telle approche, il est certain que la confiance des citoyens dans les systèmes de l’IA serait renforcée.

16. En conclusion, notre étude montre que la réglementation actuelle n’est pas suffisante pour faire face aux risques engendrés par l’utilisation des systèmes de l’IA. Une approche fondée sur l’éthique est primordiale, mais encore faut-il qu’elle repose sur de bons critères. Notre analyse nous a permis de mettre en évidence trois nouveaux critères (liste non exhaustive) : le « temps incompressible », la « vision à long terme » et l’« interdépendance ». Ceux-ci ont pour objectif de faire évoluer l’approche actuelle de l’éthique vers un nouveau modèle que nous avons appelé l’« éthique partagée de l’IA ». Enfin, il convient de se rassurer et de rappeler que l’IA, comme toute autre technologie, n’existe que parce que l’Homme l’a fait exister. Elle n’est ni autonome, ni indépendante. Elle ne possède pas de « dynamique qui lui est propre et qui échappe à toute stratégie raisonnée des citoyens »45. En ce sens, l’évolution de l’IA dépend et dépendra toujours d’un ensemble de facteurs qui trouvent leur source dans l’Homme et sa volonté de la développer, ou pas. Dès lors, ayons confiance en nous et nous ferons les bons choix !

Notes de bas de pages

  • 1.
    Référence de la définition donnée dans le chapeau : OCDE, « Recommandation du Conseil sur l’intelligence artificielle », OECD/LEGAL/0449 ; v. le Recueil des instruments juridiques de l’OCDE, http://legalinstruments.oecd.org.
  • 2.
    V. Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, 21 avr. 2021, COM(2021) 206 final.
  • 3.
    Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, 21 avr. 2021, https://lext.so/HkDvOn.
  • 4.
    Charte éthique européenne d’utilisation de l’IA dans les systèmes judiciaires et leur environnement : CEPEJ, 4 déc. 2018, p. 55.6 ; v. not. JCP G 2018, act. 1331, note N. Fricero.
  • 5.
    L. Wada, « De la machine à l’intelligence artificielle : vers un régime juridique dédié aux robots », LPA 26 déc. 2018, n° LPA140x0.
  • 6.
    H. Stone, Introduction to Computer Organization and Data Structures, 1972, McGraw-Hill Book Company, note cité in L. Viaut, « Droit et algorithmes : réflexion sur les nouveaux processus décisionnels », LPA 4 sept. 2020, n° LPA155y3.
  • 7.
    J. El Ahdab et M. Miranda, « Arbitrage international versus intelligence artificielle », Revue de droit des affaires déc. 2018, n° 15, p. 2.
  • 8.
    Y. Gaudemet, « La justice à l’heure des algorithmes », RDP 2018, p. 651 ; v. également G. Teboul, « La justice prédictive : une actualité inquiétante, ou un pari exaltant ? », GPL 7 avr. 2020, n° GPL377f4.
  • 9.
    L. Viaut, « Droit et algorithmes : réflexion sur les nouveaux processus décisionnels », LPA 4 sept. 2020, n° LPA155y3.
  • 10.
    V. La rédaction du village, « Guide et observatoire permanent de la legaltech et des start-up du droit », 6 janv. 2022, https://lext.so/3Rh_TQ.
  • 11.
    Y. Gaudemet, « La justice à l’heure des algorithmes », RDP 2018, p. 651.
  • 12.
    L. Viaut, « Le raisonnement juridique algorithmique », LPA 21 août 2020, n° LPA153z6.
  • 13.
    M.-C. Lasserre, « L’intelligence artificielle au service du droit : la justice prédictive, la justice du futur ? », LPA 30 juin 2017, n° LPA127v0.
  • 14.
    J. El Ahdab et M. Miranda, « Arbitrage international versus intelligence artificielle », Revue de droit des affaires déc. 2018, n° 15, p. 2.
  • 15.
    M.-C. Lasserre, « L’intelligence artificielle au service du droit : la justice prédictive, la justice du futur ? », LPA 30 juin 2017, n° LPA127v0.
  • 16.
    M.-C. Lasserre, « L’intelligence artificielle au service du droit : la justice prédictive, la justice du futur ? », LPA 30 juin 2017, n° LPA127v0.
  • 17.
    J.-G. Ganascia, « Peut-on contenir l’intelligence artificielle ? », Pouvoirs 2019, vol. 170, n° 3, p. 71-81 ; A. Hyde, « Droit et intelligence artificielle : quelle régulation du marché pour des outils de justice prévisionnelle dignes de confiance ? », JCP G 2021, 142 ; L. Archambault, « Vers une intelligence artificielle “éthique” : objectifs et enjeux de la stratégie européenne en préparation », GPL 8 juin 2021, n° GPL422k7 ; v. Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, 21 avr. 2021, https://lext.so/HkDvOn.
  • 18.
    V. Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, 21 avr. 2021, https://lext.so/HkDvOn.
  • 19.
    A. Hyde, « Droit et intelligence artificielle : quelle régulation du marché pour des outils de justice prévisionnelle dignes de confiance ? », JCP G 2021, 142.
  • 20.
    P. Deumier, « La justice prédictive et les sources du droit : la jurisprudence du fond », in La Justice prédictive, t. 60, 2018, Archives de philosophie du droit, Dalloz, p. 49 et s. ; A. Hyde, « Droit et intelligence artificielle : quelle régulation du marché pour des outils de justice prévisionnelle dignes de confiance ? », JCP G 2021, 142.
  • 21.
    La rédaction, « Intelligence artificielle : un nouveau règlement européen sur l’IA », 29 avr. 2021, https://lext.so/Yu8e2-.
  • 22.
    M. Cassuto, « La justice à l’épreuve de sa prédictibilité », AJ pénal 2017, p. 334 et s.
  • 23.
    V. École de droit de SciencesPo, Les enjeux éthiques de la justice prédictive, 2019, Predictice et Wolters Kluwer.
  • 24.
    M. Coulaud, « Intelligence artificielle. Quelle place pour l’éthique et le droit en matière d’intelligence artificielle ? 3 questions à Mathieu Coulaud, directeur juridique, Microsoft France », Comm. com. électr. 2018, entretien 1.
  • 25.
    F. Aufrechter, « Redonnons confiance aux nouvelles technologies ! », 18 mars 2021, https://lext.so/Cu2yP_.
  • 26.
    S. Ibrahim, « Comment renforcer la confiance dans les nouvelles technologies ? », 22 sept. 2020, https://lext.so/-hN351.
  • 27.
    S. Ibrahim, « Comment renforcer la confiance dans les nouvelles technologies ? », 22 sept. 2020, https://lext.so/-hN351.
  • 28.
    S. Ibrahim, « Comment renforcer la confiance dans les nouvelles technologies ? », 22 sept. 2020, https://lext.so/-hN351.
  • 29.
    Comm. UE, Livre blanc. Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, 19 févr. 2020, https://lext.so/L7Ktiy.
  • 30.
    V. Proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’union, 21 avr. 2021, https://lext.so/HkDvOn.
  • 31.
    La recommandation sur l’intelligence artificielle adoptée par le Conseil de l’OCDE, le 22 mai 2019, s’inscrit dans une logique similaire à celle du Parlement européen et du Conseil. En effet, elle a pour objectif de « bâtir un cadre d’action stable à l’échelle internationale afin de favoriser la confiance dans l’IA ». En ce sens, le projet de recommandation vise « à promouvoir une approche d’une IA digne de confiance qui soit centrée sur l’humain, favorise la recherche, préserve les incitations économiques en faveur de l’innovation, et vaille pour l’ensemble des parties prenantes ».
  • 32.
    Comm. UE, Livre blanc. Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance, 19 févr. 2020, https://lext.so/L7Ktiy.
  • 33.
    A. Guimond, « La notion de confiance et le droit du commerce électronique », Lex Electronica 2008, vol. 12, n° 3, https://lext.so/Cv26mt.
  • 34.
    A. Guimond, « La notion de confiance et le droit du commerce électronique », Lex Electronica 2008, vol. 12, n° 3, https://lext.so/Cv26mt ; C. Lane et R. Bachmann, Trust within and between organizations: Conceptuals Issues and Empirical Applications, 1998, Oxford University Press, p. 276.
  • 35.
    Cet outil aurait vocation à reprendre ce qui existe déjà, à l’image du baromètre de la confiance des Français dans le numérique (https://lext.so/xYkPfb) ; mais au sens de notre proposition, le baromètre serait plus performant (évolution en temps réel, possibilités de pronostiques, etc.).
  • 36.
    C. Bernard et N. Burgur, « La synchronisation du droit et de l’innovation. Regard sur les objets connectés », 12 mars 2018, HAL, https://lext.so/Kk4x8U.
  • 37.
    C. Bernard et N. Burgur, « La synchronisation du droit et de l’innovation. Regard sur les objets connectés », 12 mars 2018, HAL, https://lext.so/Kk4x8U.
  • 38.
    J.-P. Bouilloud et O. Fournout, « Accélération et bourrage du temps : les enjeux de la perception du temps dans la modernité », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 125-141.
  • 39.
    N. Aubert, « Accélération et hyperconnexion à l’ère du capitalisme financier : accomplissement de soi ou dépossession de soi ? », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 9-23.
  • 40.
    J.-P. Bouilloud et O. Fournout, « Accélération et bourrage du temps : les enjeux de la perception du temps dans la modernité », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 125-141.
  • 41.
    P.-A. Chardel et C. Dartiguepeyrou, « Être, temps et différences : pour une approche différencialiste du temps à l’ère numérique », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 95-110.
  • 42.
    P.-A. Chardel et C. Dartiguepeyrou, « Être, temps et différences : pour une approche différencialiste du temps à l’ère numérique », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 95-110.
  • 43.
    P.-A. Chardel et C. Dartiguepeyrou, « Être, temps et différences : pour une approche différencialiste du temps à l’ère numérique », in N. Aubert (dir.), @ la recherche du temps. Individus hyperconnectés, société accélérée : tensions et transformations, 2018, Érès, Sociologie clinique, p. 95-110 ; Z. Bauman, La vie liquide, 2013, Fayard-Pluriel.
  • 44.
    T. Labatut, « De nouveaux outils pour une éthique partagée des acteurs de l’arbitrage », LPA 13 nov. 2020, n° LPA156z2.
  • 45.
    T. Ruckebusch, « Le monde du travail à l’ère de l’intelligence artificielle : menace ou opportunité ? », JCP S 2021, p. 1112.