L’intelligence artificielle au XXIe siècle : outil juridique fiable ou amplificateur d’injustices ?

Publié le 02/05/2024
L’intelligence artificielle au XXIe siècle : outil juridique fiable ou amplificateur d’injustices ?
Kiattisak/AdobeStock

L’impact de l’intelligence artificielle sur la pratique juridique fait l’objet de nombreux débats parmi les chercheurs à Harvard, Yale, Oxford, ainsi qu’en Europe. Pour certains, elle constitue une avancée majeure alors que pour d’autres elle apparaît comme une boîte de Pandore dont on peine à mesurer encore tous les maux pour les juges et les avocats.

Dans son ouvrage intitulé « La Fin des Avocats ? »1, Richard Susskind expose une vision où le travail juridique se métamorphose graduellement, passant d’une approche sur mesure à une standardisation méthodique. Certes, l’intelligence artificielle (IA) a introduit une révolution numérique, mais elle soulève des problématiques brûlantes pour les juristes2. S’agit-il d’un outil indispensable ou d’une simple prothèse intellectuelle destinée à réduire l’incertitude ? Peut-elle remplacer les avocats et les juges ? Enfin, faut-il se diriger vers une justice utilitariste qui privilégie les intérêts de la société dans son ensemble ? Selon Sebastian Thrun, dans un article paru dans The Economist3, il deviendra de plus en plus compliqué pour les individus de fournir une contribution productive à la société, car les machines pourraient bientôt les surpasser. Dans le même sens, Ray Kurzweil4 prévoit que, d’ici peu, nous atteindrons ce qu’il appelle la « singularité technologique ». Cette notion représente le moment où l’IA devancera l’humain en termes de compréhension et de capacités. L’enjeu de cet article est fondamental : comme le pouvoir tend à glisser entre les mains des algorithmes, les idéaux démocratiques et d’égalité devant la loi risquent d’être remis en cause. Il conviendra d’analyser les forces et faiblesses de l’IA dans un premier temps (I), avant de mettre en exergue la plus-value persistante des avocats dans un second temps (II).

I – La concurrence entre l’IA et les juges : révolution ou illusion ?

Leibniz avait esquissé l’utopie d’un univers où la raison légale se fondrait en un enchevêtrement mathématique de syllogismes5, puis avait abandonné cette idée. Par la suite, C. Perelman avait contesté une telle vision6. Que faut-il en penser ? Après avoir souligné les prouesses technologiques générées par l’IA (A), nous prendrons la mesure de ses limites sur le plan du raisonnement, afin de démontrer qu’elle n’est pas encore capable de rivaliser avec les juges (B).

A – Les avancées apportées par l’IA

Analyse notionnelle. L’intelligence artificielle est composée de deux mots. Le premier renvoie à la capacité de penser, tandis que le second signifie produit par l’humain. Par conséquent, il est possible de soutenir que l’IA est un pouvoir de réflexion créé par les personnes physiques. Plus précisément, un groupe d’experts de haut niveau7 l’a défini comme : « Des systèmes logiciels conçus par des humains qui, étant donné un objectif complexe, agissent dans la dimension physique ou numérique en percevant leur environnement par l’acquisition de données ». Toutefois, force est de constater non seulement l’absence de consensus à l’échelle internationale8 sur ce que recouvre précisément cette expression, mais aussi son imprécision qui se comprend par son origine historique9. L’IA apparait comme un oxymore car cette notion juxtapose deux termes contradictoires : d’un côté l’intelligence est associée à des facultés cognitives autonomes ; de l’autre, le vocable artificiel renvoie à des systèmes informatiques dénués de toute conscience. Même si elle est un syntagme difficile à circonscrire et qui évolue avec le temps, il est possible, selon nous, de mieux la cerner à partir de ses cinq objectifs :

• penser comme des humains (en s’inspirant des réseaux neuronaux) ;

• agir comme eux (grâce au raisonnement automatisé et à l’apprentissage) ;

• réaliser une tâche particulière (en utilisant des méthodes inspirées du fonctionnement des humains) ;

• adopter un comportement rationnel (en développant une capacité à prendre des décisions) ;

• automatiser ou reproduire un comportement intelligent (en imitant les processus cognitifs).

Des avantages multiples. En droit de la famille, l’IA est triplement utile. Tout d’abord, comme elle se singularise par sa vitesse de traitement, sa productivité et sa précision, elle peut être utilisée pour les tâches chronophages, telles que l’analyse d’attestations ou de documents financiers. Elle augmentera la vitesse de travail des magistrats et conduira à une plus grande efficience. Ensuite, elle est susceptible de favoriser le règlement amiable des litiges par un partage équitable de la garde des enfants ou des actifs. Enfin, en s’appuyant sur les nombreuses décisions passées, elle permet au juge d’affiner son verdict sur le montant de la prestation compensatoire10, par exemple. En droit pénal, C. Beccaria, qui était partisan de l’efficacité du système juridique et s’opposait à l’interprétation des lois par les juges, aurait été favorable à l’IA11 – d’autant plus qu’il considérait la punition comme un moyen de dissuasion. Cette logique préventive peut être encouragée grâce à une analyse informatique plus approfondie des facteurs de récidive. Selon certains12, dans les affaires de violences conjugales, substituer les juristes par des systèmes d’apprentissage automatique pour les choix de mise en résidence surveillée pourrait potentiellement diviser par deux le nombre de réincarcérations au cours des deux années suivant la libération. Les juges ont des préoccupations concernant la possibilité que les accusés libérés sous caution commettent des infractions. Une IA pourrait décider d’accorder ou de refuser la caution à partir d’un ensemble de données. Une récente étude portant sur les audiences de libération sous caution à New York a révélé qu’en utilisant des algorithmes d’apprentissage automatique, il est possible de réduire la criminalité de 25 % sans accroître le nombre de détenus, ou de diminuer la population carcérale de 42 % sans augmenter le taux de criminalité13. Enfin, certaines décisions américaines révèlent que désormais les juges se fondent sur l’IA pour déterminer les peines applicables14.

IA et machine learning15. Le machine learning peut être défini comme des méthodes computationnelles s’appuyant sur l’expérience pour améliorer les performances ou réaliser des prédictions précises. Dans la sphère juridique, l’IA permet de prévoir16 à 79 % les décisions de la Cour européenne des droits de l’Homme, mais également celles de la Cour suprême des États-Unis17. Quelles que soient les avancées réalisées, comme le souligne N. Belloubet, ancienne ministre de la Justice, il convient de veiller à ce que les LegalTech soient « bien guidés par l’intérêt général plutôt que dictés par un marché dont les défaillances peuvent apparaître assez rapidement »18.

B – Les limites du machine learning : le risque dystopique d’une justice déshumanisée ?

La complexité du processus judiciaire. Celui-ci repose sur des principes d’équité et nécessite une pondération des faits, avec certains éléments considérés comme plus importants que d’autres, selon le contexte. Cette complexité souligne les défis pour une IA de reproduire avec précision le jugement humain. Outre-Atlantique, lorsque des rumeurs ont circulé sur le fait que la Cour suprême souhaitait annuler le droit à l’avortement consacré par l’affaire Roe versus Wade, beaucoup se sont demandé quelle aurait été la réaction de feu la juge Ruth Bader Ginsburg19 sur le sujet. Pour cela, un modèle d’intelligence artificielle a été développé pour reproduire ses potentielles réponses sur des problématiques juridiques spécifiques. Ce modèle a été entraîné en utilisant l’ensemble de ses opinions écrites et diverses déclarations publiques tout au long de sa carrière. À première vue, une telle avancée pourrait sembler louable dans la mesure où elle pourrait contribuer à résoudre la crise de recrutement dans le domaine judiciaire. Toutefois, un tel procédé est-il fiable à 100 % ? Rien n’est moins sûr. Sur le point de savoir si le droit à l’avortement était légal, l’IA avait imité le style de la juge mais avait esquivé la question20. Un professeur lui avait également posé l’interrogation suivante : « Les tribunaux fédéraux doivent-ils se fier aux constatations de fait des tribunaux étatiques ? ». De même, l’IA n’a pas su répondre directement. Ces exemples démontrent qu’une forte capacité de stockage d’informations tout comme une grande vitesse de traitement des données ne sont pas forcément synonymes d’intelligence.

Un possible remplacement des juges ? La substitution des juges par l’IA n’est pas la panacée pour résoudre l’engorgement des tribunaux. Et ce d’autant plus qu’il est également néfaste d’attribuer systématiquement à un juge une décision constante. Cela constitue une négation de leur liberté de jugement. En ce sens, relevons que la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la Justice prévoit dans son article 33 que les données d’identité des magistrats et des membres de l’office judiciaire ne peuvent être réutilisées dans le but d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou présumées. Le rapport publié par la mission de recherche « Droit et justice » en juillet 2019, intitulé « Comment le numérique transforme le droit et la justice » avait indiqué que « la société n’est pas prête à déléguer ce genre de pouvoir à un ordinateur, et c’est une bonne chose. En effet, nous sommes prêts à accepter la sentence d’un juge, car il est à la fois un expert et un être humain impartial : il peut appréhender les faits et les organiser selon les règles de droit appropriées, mais il est également capable de comprendre les sentiments des deux parties au moment de prendre sa décision, en recherchant au-delà de l’État de droit une solution équitable, ce qu’une machine ne peut pas faire à ce jour ». En dernier lieu, si les jugements étaient rendus par des IA en lieu et place des juges, plus aucun appel ne serait possible. Or, cette voie de réformation est essentielle pour deux raisons. D’une part, elle favorise un nouvel examen plus rigoureux. D’autre part, elle permet aux parties ayant succombé en première instance de faire réviser leur décision par une nouvelle juridiction.

Les obstacles au développement de lIA. Ils sont multiples dans de nombreux domaines.

En droit de la famille, l’IA ne pourra jamais remplacer les juges, car l’humain a besoin d’un cœur vivant pour le comprendre. Chaque couple est unique. Or, l’IA la plus sophistiquée ne sera pas à même d’appréhender toute la complexité des dynamiques familiales. De surcroît, il y a parfois une dimension émotionnelle importante tant dans l’obtention de la garde des enfants que dans le partage de certains biens. Celle-ci ne pourra pas être prise en compte par les nouvelles technologies et sera sacrifiée in fine sur l’autel de l’efficience.

En droit pénal, rendre la justice implique la participation de plusieurs acteurs : juges, avocats, procureur, témoins, experts, ce qui n’est pas possible avec les nouvelles technologies. Pour rendre leur décision, les systèmes d’IA peuvent utiliser des données sensibles sur le plan médical, ou sur les antécédents criminels. Il est fondamental que la confidentialité des informations soit parfaitement respectée. De plus, les situations qui demandent une analyse intuitive ou un discernement humain pourraient surpasser les capacités des machines les plus performantes. Un algorithme d’intelligence artificielle pourrait ne pas être en mesure de prendre en considération les circonstances aggravantes ou atténuantes susceptibles d’influencer le niveau de culpabilité ou de risque associé à un accusé ou à un délinquant.

En droit international privé, il peut y avoir des conflits de lois entre différents pays. L’IA n’est pas à même de saisir toutes les nuances culturelles et les spécificités des règles propres à chaque système juridique. Plus encore, sur le plan pratique, elle sera incapable de procéder à une liquidation de régime matrimonial complexe impliquant des biens répartis à l’étranger.

Si nous nous orientons dans un univers technologique que Kevin Kelly qualifie de cognification21, c’est-à-dire où les machines deviennent de plus en plus intelligentes, quelle place demeure concrètement pour les avocats ?

II – Les avocats : remparts contre l’algorithmocracie et les injustices structurelles ?

Tout comme les juges, les avocats conservent un rôle crucial dans l’appréhension des problèmes très techniques, mais aussi dans l’élaboration de solutions novatrices en droit. Dans le cadre d’une négociation, l’IA ne peut pas tirer de conclusions sur le langage non verbal de l’une des parties. Surtout, la déontologie des avocats est garante de leur supériorité sur les nouvelles technologies (A). Ils conservent un rôle crucial pour lutter contre l’algorithmocracie22 – qui accapare les pouvoirs régaliens – en défendant de manière indépendante l’intérêt de leurs clients (B).

A – Compétence des avocats et secret professionnel

En France. Le décret du 12 juillet 2005, article 3, alinéa 3, souligne que l’avocat « fait preuve, à l’égard de ses clients, de compétence, de dévouement, de diligence et de prudence ». L’obligation de formation continue lui apporte une plus-value sur l’IA dont les données ne sont pas toujours réactualisées. Se reposer entièrement sur les résultats fournis par l’IA se révèle dangereux. De plus en plus, la presse s’est fait l’écho des erreurs générées par les nouvelles technologies. Ainsi, en 2023, deux avocats américains ont été condamnés à une amende de 4 600 dollars pour avoir produit de fausses jurisprudences obtenues à l’aide de Chat GPT23. Par ailleurs, une étude a été réalisée en 2023 pour voir s’il était en mesure de réussir des examens de droit à l’université du Minnesota. Elle a démontré que s’il possède une bonne compréhension des règles juridiques de base, il rencontre des difficultés à identifier les problèmes pertinents et à appliquer les règles de manière approfondie et judicieuse par rapport aux étudiants en droit réels24.

Aux États-Unis, les règles de conduite professionnelle de l’Association du barreau américain25 soulignent qu’un avocat est guidé par sa conscience personnelle et doit s’efforcer d’atteindre le plus haut niveau de compétence. De surcroît, elles précisent que la représentation « nécessite les connaissances juridiques, l’habileté, le sérieux » ainsi qu’une préparation raisonnablement suffisante. Il est également indiqué que : « Pour maintenir les connaissances, il doit se tenir au courant des changements dans la loi et sa pratique, y compris les avantages et les risques associés à la technologie pertinente, s’engager dans des études et une formation continue ».

L’avantage des juristes par rapport à l’intelligence artificielle réside dans leur capacité à assimiler et à s’adapter aux évolutions constantes du droit et de sa pratique. Contrairement à une IA, qui peut être programmée pour effectuer des tâches spécifiques, ils possèdent une compréhension nuancée et contextuelle des lois et des procédures judiciaires. De plus, ils ont une connaissance actualisée des nouvelles dispositions législatives. Ils jouent également un rôle crucial quant à la protection des informations confiées.

La confidentialité des données. Aux États-Unis, les règles de déontologie professionnelle de l’American bar association (règle 1.6), disposent que les avocats ne doivent « pas révéler d’informations relatives à la représentation d’un client à moins qu’il ne donne son consentement éclairé, que la divulgation soit implicitement autorisée afin de mener à bien la représentation ». Par ailleurs, la règle 1.6 (c) prévoit qu’ils sont tenus de : « Prendre des mesures raisonnables pour empêcher la divulgation involontaire ou non autorisée, ou l’accès non autorisé, à des informations ». En Angleterre et au Pays de Galles, ils doivent « garder confidentielles les affaires des clients actuels et anciens, sauf si la divulgation est requise ou autorisée par la loi ou si le client y consent ». En France, l’article 2.1 du règlement intérieur national souligne que l’avocat est le confident nécessaire du client. Le secret professionnel est d’ordre public. Il est général, absolu et illimité dans le temps.

Aujourd’hui, la confidentialité des données n’est pas garantie par l’IA. Certaines LegalTech proposent d’analyser les conclusions adverses pour proposer des arguments en réponse ou encore pour trouver les jurisprudences citées. Nul ne sait encore qui détient ces données et quel usage en est fait, voire s’il est possible de les supprimer des programmes. De plus, les individus sont confrontés à une surcharge de demandes de consentement. Compte tenu des limites de la rationalité humaine et de l’empressement des utilisateurs, ceux-ci peuvent adhérer trop vite et accepter le traitement d’informations privées, sans avoir pris le temps d’en mesurer toutes les conséquences.

B – Intérêt des clients et partialité de l’IA

Avec le développement de l’IA, les pratiques discriminatoires, telles que le racisme, le sexisme et les préjugés, demeurent souvent enracinées lors de la collecte de données personnelles. Cela peut engendrer des dommages conséquents aux individus déjà marginalisés, et saper ainsi les valeurs démocratiques d’égalité et de justice.

Un discours adapté. Les avocats adaptent leurs conseils en fonction de leurs interlocuteurs. Aux États-Unis, le préambule aux règles modèles de l’American bar association reconnaît leur obligation « de protéger et de poursuivre avec zèle les intérêts légitimes du client, dans les limites de la loi ». Le Restatement of the Law Governing Lawyers exige qu’ils « agissent de manière raisonnablement calculée » pour faire avancer leurs objectifs légaux. En Angleterre et au Pays de Galles, les principes de l’Autorité de régulation des solicitors leur imposent d’agir dans le meilleur intérêt de chaque client. Ils sont tenus de délivrer des informations de manière compréhensible pour qu’ils puissent prendre des décisions éclairées sur les services dont ils ont besoin, et sur les options qui s’offrent à eux. En France, l’article 21.2.7 du règlement intérieur national est similaire. Il en va différemment avec les utilisateurs de l’IA qui sont souvent dans une position d’asymétrie informationnelle. En effet, bien souvent, ils ignorent quels sont leurs droits et méconnaissent le fonctionnement réel de la technologie. Enfin, seuls les avocats peuvent comprendre que, ce qui peut apparaître comme une affaire mineure pourrait, en réalité, constituer l’événement le plus crucial et potentiellement dévastateur dans la vie des individus concernés.

Exigence de loyauté et dindépendance26.Outre-Atlantique, le code de conduite professionnelle de l’Association du barreau américain mentionne également les principes suivants : « Loyauté et indépendance sont des éléments essentiels dans la relation des avocats envers leur client » (rule 7). En se basant sur le 6e amendement de la Constitution, le barreau américain a réussi à garantir son indépendance vis-à-vis de toute interférence gouvernementale. En Europe, le code de déontologie des avocats de l’UE place ce principe en premier et considère qu’il a un caractère absolu (art. 2.1.1). La prestation juridique n’a pas de valeur si elle a été donnée sous l’effet d’une pression extérieure.

En France, le règlement intérieur national dispose également que la profession d’avocat est indépendante quel que soit son mode d’exercice (RIN, art. 1.1). Les avocats doivent avoir conscience des déficiences des IA, afin de pouvoir contester de manière adéquate leur utilisation lors de procédures pénales. Plus encore, il leur incombe de faire respecter l’État de droit et d’assurer la protection de tous les citoyens en excluant toute forme de discrimination.

Le mythe de limpartialité de lIA. Elle ne peut faire preuve d’indépendance totale car ses méthodes de raisonnement dépendent des informations introduites par l’informaticien dans son programme. Ses contempteurs soulignent le fait qu’il s’agit de systèmes impénétrables reposant sur des réseaux neuronaux opaques dont les entrées et les opérations ne sont visibles ni pour l’utilisateur ni pour toute autre partie intéressée. Il existe un défaut évident de clarté sur la manière dont les données sont codées. Le bureau du commissaire à l’information du Royaume-Uni déclare que « la complexité du traitement des données via des réseaux aussi massifs crée un effet de “boîte noire”.27 Dans le même sens, des chercheurs de l’université d’Harvard avaient démontré que cela pouvait conduire à des résultats obscurs28 ou discriminatoires – autant d’éléments susceptibles dans le futur de nuire à la justice sociale et d’encourager la violation des droits fondamentaux. Les décisions prises par une IA peuvent être difficiles à expliquer, ce qui peut entraîner un manque de confiance des individus, surtout lorsque des décisions financières importantes sont en jeu. Le problème est d’autant plus complexe qu’aux États-Unis les algorithmes ont un caractère exclusif et sont protégés par la loi29. L’affaire People versus Chubbs30 a mis en évidence l’urgence d’établir un cadre juridique efficace pour résoudre le conflit entre les droits constitutionnels des accusés et ceux relevant de la propriété intellectuelle qui protège les entreprises. En l’espèce, un accusé condamné à mort s’était vu refuser l’accès à des informations confidentielles (sur le fonctionnement d’un logiciel médico-légal qui l’avait déclaré coupable), sous prétexte que le développeur invoquait le secret commercial.

Les différents biais comme travers de lalgorithmocracie. Les psychologues cognitifs31 ont été les pionniers dans la théorisation du phénomène. S’appuyant sur les travaux de Maurice Merleau-Ponty, ils précisent que les biais implicites peuvent être définis comme des habitudes perceptuelles qui reposent sur des stéréotypes. Selon O. Sibony, professeur affilié à HEC, il s’agit d’« erreurs systématiques, d’écarts réguliers par rapport aux choix dits “rationnels” »32. Les modèles d’intelligence artificielle sont susceptibles de reproduire les préjugés qui influencent la prise de décision humaine de multiples façons. D’abord, dans le cadre des technologies émergentes, les systèmes d’IA utilisant des réseaux neuronaux repèrent les schémas récurrents présents dans les ensembles de données existants et anticipent les événements futurs à partir de ces informations. Néanmoins, il existe une forte possibilité que ces systèmes imitent, voire accentuent les a priori. Kate Crawford, professeur en Californie et à l’école normale supérieure de Paris, déclare que l’IA n’est pas « une technique de calcul objective, universelle ou neutre » dans la mesure où elle est susceptible d’amplifier les « inégalités structurelles existantes »33. De plus, d’autres difficultés peuvent être liées à l’utilisation de données périmées, de sélections déformées, d’un échantillonnage non représentatif, ou encore de statistiques trompeuses. Enfin, dans un ouvrage intitulé lAlgorithme éthique, publié aux presses universitaires d’Oxford, les auteurs dénoncent le fait que les décisions prises à partir d’informations ou d’algorithmes biaisés peuvent « être à la base d’une collecte de données ultérieure, formant une boucle de rétroaction pernicieuse »34. La présence d’une supervision humaine par un juriste s’avère essentielle pour contester un résultat incorrect, incertain ou discriminatoire.

Biais et droit pénal. Si un algorithme35 est formé à partir de données qui sont majoritairement issues de personnes d’un certain groupe démographique ou culturel, il peut avoir des difficultés à généraliser correctement ses prédictions pour d’autres ensembles de personnes. La Law society36 relève que la façon dont les informations sont étiquetées, évaluées et classées est influencée par des jugements subjectifs. Cela peut engendrer des biais comme l’adoption de stratégies de police qui ciblent injustement certaines communautés, ou la suggestion de propositions de sanctions disproportionnées. En l’absence de sensibilisation et de contrôle juridique efficace, les systèmes d’IA ont le potentiel d’amplifier les préjugés existants et d’aggraver les disparités entre individus. Lorsque l’IA émet une prédiction, elle se fonde uniquement sur les diplômes, les antécédents judiciaires37, l’expérience professionnelle, l’âge, le sexe, sans tenir compte des considérations éthiques liées au contexte socio-économique des personnes impliquées. Pour évaluer le risque de récidive, les modèles se fondent aussi sur des critères, tels que le lieu de résidence (souvent associée à la race et à l’appartenance ethnique), les interactions avec les forces de l’ordre et d’autres aspects personnels qui ne seraient généralement pas pris en compte devant un tribunal. Autant d’éléments sur lesquels les avocats doivent faire preuve d’une vigilance accrue. Ils doivent contribuer à défendre avec force le principe d’individualisation des peines, d’égalité, de dignité humaine. De plus, le type de discrimination qui se produit dans le cadre de la modélisation prédictive peut ne pas être pris en compte par la législation existante.

Aux États-Unis : plus d’IA, moins de lois ? Outre-Atlantique, la réglementation est encore embryonnaire. Lors de l’adoption de la National Artificial Intelligence Initiative Act de 2020, le Congrès des États-Unis a publié une déclaration conjointe d’intention du Congrès du Sénat et de la chambre des représentants qui condamne sur la forme les IA qui établissent illégalement une discrimination à l’encontre de catégories de personnes protégées, notamment sur la base du sexe, de la race, de l’âge, du handicap, de la couleur, de la croyance, de la nationalité, de l’origine, ou de la religion38. En 2024, seule une douzaine des 200 projets39 de lois liés à l’IA présentés dans les États ont été adoptés. La tendance actuelle est de privilégier le développement des nouvelles technologies plutôt qu’une approche juridique restrictive. En effet, une telle orientation constituerait un frein à leur croissance et emporterait des conséquences économiques gigantesques. À l’heure de la concurrence et de la compétition cognitive internationale, cela aurait également des implications géostratégiques en affaiblissant la position d’influence mondiale des États-Unis.

Le droit européen : une protection suffisante ? Le règlement général sur la protection des données de l’Union européenne de 2016 avait souligné les abus potentiels des IA. Le considérant 71 du règlement insiste sur la nécessité de mettre en œuvre des « mesures techniques et organisationnelles » visant à « prévenir, entre autres, les effets discriminatoires sur les personnes physiques fondés sur l’origine raciale ou ethnique, l’opinion politique, la religion ou les convictions, l’adhésion à un syndicat, le statut génétique ou de santé ou l’orientation sexuelle ». De tels travers avaient été également dénoncés à maintes reprises par le Parlement européen40. La charte éthique européenne précise par ailleurs qu’« en matière pénale, leur usage doit être envisagé avec la plus grande réserve afin de prévenir les discriminations fondées sur des données sensibles, dans le respect des garanties d’un procès équitable »41. Dans le même sens, la Commission européenne pour l’efficacité de la Justice a posé le principe de non-discrimination. Toutefois, la protection des citoyens est encore symbolique. Étant donné que les algorithmes sont protégés par le secret commercial, cela entrave la transparence. Certes, l’article 5 de la directive de l’Union européenne n° 2016/943 sur la protection des secrets d’affaires réglemente les exceptions et permet la levée de cette protection « aux fins de protéger un intérêt légitime reconnu par le droit de l’Union ou national ». Ainsi, le droit de faire une déclaration concernant une décision automatique entraînant une discrimination algorithmique peut être considéré comme « protégeant un intérêt légitime », mais cela n’est pas systématique.

LIA Act de 2024 : une incitation à la responsabilité algorithmique ? L’Union européenne est la première organisation au niveau international à mettre en place une législation qui englobe tous les aspects de l’IA dont la justice pénale. Ce cadre juridique uniforme lui confère une position hégémonique et de leader dans la promotion d’une conduite éthique, se distinguant nettement des approches américaine et chinoise. Il s’agit d’un système basé sur l’évaluation des risques qu’il hiérarchise en quatre niveaux (inacceptable, élevé, modéré, nul). Plus ces derniers sont importants, plus la réglementation est contraignante. Adopté par le Parlement européen le 13 mars 2024, il enrichit le cadre juridique de l’UE en introduisant des critères précis visant à réduire les discriminations algorithmiques (art. 10) et la police prédictive fondée sur le profilage. Ils se concentrent notamment sur la conception et la qualité des données utilisées dans le développement des systèmes d’IA, et sont accompagnés d’obligations relatives aux tests, à la gestion des risques, à la documentation et la supervision humaine tout au long du cycle de vie de ces systèmes. L’IA Act souligne la nécessité dans l’article 1.1 de garantir un niveau élevé de protection de la sécurité et droits fondamentaux consacrés dans la Charte. Plus encore, l’article 71 prévoit des amendes administratives pouvant aller jusqu’à 35 000 000 euros ou, si le contrevenant est une entreprise, jusqu’à 7 % du chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent. Malgré ces progrès juridiques louables, il reste que si, lors des discussions, la commission a mené une analyse d’impact sur les systèmes d’IA à haut risque, elle a ignoré ceux à usage général comme ChatGPT. En effet, il fallait trouver des compromis entre les différents États membres et ne pas porter atteinte au potentiel d’innovation, ce qui donne lieu in fine à des encadrements limités en fonction des évolutions technologiques. Enfin, il faudra attendre les décisions des juridictions européennes pour voir comment s’articuleront les principes de l’IA Act et le secret des affaires des grandes entreprises.

Proposition de loi. En France, il conviendrait de légiférer pour imposer un certain degré de transparence des modèles prédictifs d’IA et limiter toute discrimination et généralisation fallacieuse.

Ainsi, le rêve prométhéen d’une machine complètement autonome et dotée d’un esprit critique ne semble pas encore réalisé. D’un côté, l’IA peut traiter un grand nombre d’information. De l’autre, elle n’est pas exempte de possibles défaillances techniques et peut amplifier les discriminations. Même s’il existe différents textes comme le Règlement général sur la protection des données, le Digital Market Act et Service Act ou encore l’IA Act de 2024, les avocats conservent un rôle crucial face aux dérives potentielles des nouvelles technologies. Ils ont également la capacité d’offrir un soutien émotionnel et moral. En définitive, l’idéal repose sur une combinaison entre l’expertise des juristes et l’utilisation des systèmes informatiques capables de gérer une immense quantité de données à une vitesse remarquablement élevée. Pour éviter un avenir dystopique, en tant que spécialiste du droit, notre responsabilité demeure immense : il est essentiel d’élaborer un monde dans lequel les machines ne diminuent ni notre intelligence, ni notre ingéniosité, et où l’IA ne nous robotise pas.

Notes de bas de pages

  • 1.
    R. Susskind, The End of Lawyers ? Rethinking the Nature of Legal Services, 2010, Oxford University Press.
  • 2.
    A. Bensamoun et G. Loiseau, Droit de l’intelligence artificielle, 2022, LGDJ, vol. 15, EAN : 9782275095424 ; S. Lequette, Droit du numérique, 2024, LGDJ, EAN : 9782275061443.
  • 3.
    https://lext.so/UDg1Cn.
  • 4.
    R. Kurtzweil, L’humanité 2.0, la bible du changement, 2007, Pearson, p. 643.
  • 5.
    F. Rouvière, « Le raisonnement par algorithmes : le fantasme du juge-robot », RTD civ. 2017, p. 530.
  • 6.
    C. Perelman, Logique juridique, nouvelle rhétorique, 2e éd., 1999, Paris, Dalloz, p. 176, spéc. n° 98.
  • 7.
    Ethical Guidelines for Trustworthy AI, 2019.
  • 8.
    À l’article 3.1 (numérotation provisoire) de l’IA Act, figure la définition suivante : « Un “système d’IA” est un système basé sur une machine, conçu pour fonctionner avec différents niveaux d’autonomie et qui peut faire preuve d’adaptabilité après déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions ».
  • 9.
    En 1955, John McCarthy le définissait comme étant celui visant à doter une machine du comportement qualifiable d’intelligent, tel que celui qu’un être humain pourrait adopter. Bien que judicieuse, cette approche présentait des failles profondes. Il suffit de relever la complexité à définir et surtout à mesurer l’intelligence humaine. Notre tropisme occidental à réduire les concepts à des chiffres afin de faciliter la comparaison directe génère souvent une illusion trompeuse d’objectivité.
  • 10.
    G. Vial, « Prise en main d’un outil d’intelligence artificielle par des auditeurs de justice : l’office du juge sous l’influence des algorithmes », D. 2022, p. 1928.
  • 11.
    C. Beccaria, Des délits et des peines, 2006, Garnier, Flammarion.
  • 12.
    R. A. Berk, S. B. Sorenson et G. Barnes, “Forecasting Domestic Violence : A Machine Learning Approach To Help Inform Arraignment Decisions”, Journal of Empirical Legal Studies 2016.
  • 13.
    J. Kleinberg et a., “Human Decisions and Machine Predictions”, The Quarterly Journal of Economics 2017.
  • 14.
    Wisconsin vs Loomis, 2016 WI 68 (2016).
  • 15.
    Sur ce sujet, v. B. Ancel, « Intelligence artificielle et musique en droit comparé : simple copie ou véritable création », RLDI 9/2023, p. 29-33.
  • 16.
    N. Aletras et a., “Predicting Judicial Decisions of the European Court of Human Rights : A Natural Language Processing Perspective”, 2016, PeerJ Computer Science, DOI 10.7717/peerj-cs.93.
  • 17.
    https://lext.so/yo1O2a.
  • 18.
    Déclaration de Mme Nicole Belloubet, garde des Sceaux, lors de la conférence des ministres de la Justice du Conseil de l’Europe le 14 octobre 2019.
  • 19.
    Washington post, 14 juin 2022.
  • 20.
    Voici sa réponse : « Je crois que le droit à l’avortement doit rester une question nationale. Nous ne sommes pas si unanimes en tant que pays pour qu’une vision simpliste prédomine à l’échelle nationale ».
  • 21.
    K. Kelly, The Inevitable, 2017, New York, Penguin Books, Reprint edition.
  • 22.
    O. Derruine, “Algorithmocracy, The digital economy, a new obscurantism based on the pursuit of efficiency ?”, La Revue Nouvelle, 4 juin 2017, p. 26.
  • 23.
    https://lext.so/LK5Ws8.
  • 24.
    J. H. Choi et a., “ChatGPT goes to law school”, Journal of Legal Education, oct. 2023, Mineápolis.
  • 25.
    American bar association, “Model rules of professional conduct. Center for professional responsibility”, edition 2019.
  • 26.
    B. Ancel, « L’indépendance de l’avocat au niveau international : entre devoir de conscience et logique économique », Lexbase avocat, 9 nov. 2017.
  • 27.
    UK Government Office for Science, “Artificial Intelligence : Opportunities and Implications for the Future of Decision Making”, 2015, 16.
  • 28.
    Y. Bathaee, “The artificial intelligence black box and the failure of intent and causation”, Harvard Journal of Law & Technology 2018, 31, 889.
  • 29.
    M. Garcia, “Racist in the Machine : The Disturbing Implications of Algorithmic Bias”, World Policy Journal 2016, 33(4), p. 115.
  • 30.
    People vs Chubbs, n° B258569 (Cal. Ct. App., 9 janv. 2015).
  • 31.
    J. Holroyd and D. Kelly “Implicit bias, character, and control” in A. Masala and J. Webber (eds), From Personality to Virtue : Essays on the Philosophy of Character, Oxford, Oxford University Press, 2016.
  • 32.
    O. Sibony, « Vous allez commettre une terrible erreur, Combattre les biais cognitifs pour prendre les meilleures décisions », 2014, Clé des champs.
  • 33.
    K. Crawford, “Power, AI, Politics, and the Planetary Costs of Artificial Intelligence”, Yale university Press.
  • 34.
    M. Kearns et A. Roth, “The Ethical Algorithm”, Oxford University Press, 23 jan. 2020.
  • 35.
    O’Donnell, R. M. (2019). Challenging racist predictive policing algorithms under the equal protection clause New York University Law Review, 94(3), p. 544–580.
  • 36.
    Law society, “Algorithm in criminal justice system”, June 2019.
  • 37.
    T. Brennan and W. Dieterich, “Correctional Offender Management Profiles for Alternative Sanctions (COMPAS). Handbook of Recidivism Risk/Needs Assessment Tools”, 2018, 49.
  • 38.
    National Artificial Intelligence Initiative Act of 2020, disponible sur https://lext.so/T1CQvX.
  • 39.
    https://lext.so/Ra1q6M.
  • 40.
    European Parliament, “The ethics of artificial intelligence : issues and initiatives. Panel for the Future of Science and Technology”, European Parliament, 2020, Brussels.
  • 41.
    Charte éthique européenne d’utilisation de l’IA dans les systèmes judiciaires et leur environnement, dec. 2018.
Plan