L’évaluation des préjudices corporels par algorithmes
DataJust, traitement automatisé de données, permet l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels fondé sur une analyse algorithmique de la jurisprudence. Il a été créé en mars 2020 afin de faciliter le traitement judiciaire des préjudices corporels, mais tend sous certains aspects à devenir une forme de justice prédictive.
Le décret n° 2020-356 du 27 mars 20201, portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust », permet l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels fondé sur une analyse algorithmique de la jurisprudence2.
L’objectif ici poursuivi est d’informer tant les juges et les avocats que les justiciables sur les indemnisations de référence. Les victimes pourraient ainsi comparer les offres d’indemnisation des assureurs et les montants qu’elles pourraient obtenir devant les tribunaux. Par ailleurs, les avocats disposeraient d’informations fiables leur permettant de conseiller leurs clients. Et les magistrats pourraient avoir un outil d’aide au chiffrage des préjudices grâce à un accès facilité à des jurisprudences finement ciblées3.
L’intelligence artificielle, sur laquelle repose la justice digitale ou juste prédictive4, peut être définie comme « la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence »5. Les algorithmes, qui y sont très liés, sont un « ensemble de règles qui définit précisément une séquence d’opérations de sorte que chaque règle soit effective et définie et que la séquence se termine dans un temps fini »6. Les algorithmes d’apprentissage, dits machine learning ou apprentissage automatique, regroupent des méthodes qui permettent de trouver des relations pertinentes et compréhensibles par l’homme au sein d’un jeu de données qui décrit un ensemble d’observations. Il s’agit, dans l’analyse sérielle, des équations, des règles, des regroupements (clusters), des structures de données (graphes)7. Cette méthode permet la création d’un processus décisionnel ; le processus de décision est construit automatiquement, à partir des données et non plus à partir des règles créées explicitement par l’homme8. Les algorithmes prédictifs sont aujourd’hui les algorithmes d’apprentissage les plus pertinents. Ils permettent de générer un modèle prédictif basé sur un exemple validé par l’homme. Autrement dit, les données à disposition sont un ensemble composé de variables descriptives ou caractéristiques et de variables dites discriminantes. L’étape de l’apprentissage est un processus itératif dont l’objectif est de minimiser les erreurs. La fonction de prédiction aspire, grâce au contrôle de la réponse donnée par la machine à une question qui lui est posée, à déduire la valeur de la variable discriminante pour un exemple dont la valeur est inconnue9. Ces outils ont été développés, de manière exponentielle, par des entreprises privées. Ces instruments de justice prédictive répondent du nom de legaltechs10. De manière concrète, l’algorithme est capable de restituer les probabilités de résolution d’un litige, d’estimer le montant des indemnités, d’identifier les moyens de droit nécessaires, d’isoler et d’indiquer les faits qui ont pu influer les décisions rendues antérieurement par les juridictions11.
L’utilisation de ces nouvelles techniques dans les domaines juridique et judiciaire a conduit à la nécessité de lui donner un nom, celui de « justice prédictive »12 ou de « justice quantitative »13. Les solutions obtenues par la justice quantitative fonctionnent de la manière suivante : dans l’interface, l’utilisateur renseigne un certain nombre de mots (tels que « cour d’appel de X », « préjudices corporels »). L’outil interroge une base de données pour extraire toutes les décisions contenant les termes demandés. Enfin, à partir des décisions de jurisprudence trouvées, le logiciel calcule des statistiques sur ces décisions (pourcentage de cas où telle ou telle partie a pu avoir gain de cause, montant moyen de l’indemnité accordée, etc.)14. Le jugement prédictif devient ainsi le fruit d’un calcul effectué à partir des décisions déjà rendues. Il est vrai, ainsi que l’avait souligné Loïc Cadiet, que la justice prédictive « ouvre des perspectives d’étude de l’activité des juridictions jusqu’alors inexistantes »15. Si l’on s’en tient à ses promesses d’une justice augmentée, venant aider le juge dans sa tâche, la justice digitale présente bien des points positifs. Toutefois, le numérique, par la nouvelle forme de vérité qu’il amène, concurrencerait la forme rituelle du procès, traditionnellement admise dans notre procédure depuis plusieurs siècles. Il suscite parfois, proches du scientisme, les espoirs les plus fous, les plus inattendus et surtout les plus démesurés. Cette approche d’un jugement automatisé, déshumanisé, voire décontextualisé fait oublier qu’un jugement est nécessairement le fruit d’une réflexion, le fruit du temps. C’est sur cela que repose l’efficacité symbolique du procès16. Le juge de chair et d’os ne doit pas s’effacer devant le juge virtuel. Il ne faut pas oublier que les corrélations statistiques ne font pas toujours sens. La corrélation ne doit pas se confondre avec la causalité. Si une corrélation est un lien statistique qui ne permet pas de savoir quelle variable agit sur l’autre, la causalité est un lien qui affirme qu’une variable agit sur une autre. Autrement dit, si deux événements sont rapprochés dans le temps ou dans l’espace, on peut dire qu’ils sont corrélés. Toutefois, cela ne signifie pas nécessairement que l’un a causé l’autre…17. Par là, la justice prédictive pourrait présenter comme vérité ce qui n’est qu’un artifice. Le langage juridique a une valeur performative au sens que lui donne John Austin18. Lorsqu’un juge énonce dans un jugement qu’il condamne quelqu’un à une peine, son énoncé se traduit généralement en une peine effective19. Il s’agit là de la valeur quasi magique des mots juridiques20. La justice prédictive pourrait devenir performative à partir du moment où les algorithmes s’appliqueraient directement au litige21. Si pour l’heure, ces outils ne sont qu’une aide accompagnant le juge dans son travail, il ne faut pas négliger le risque de transformation des normativités. La justice prédictive pourrait, en effet, générer une sorte de normativité seconde, de voir en quelque sorte la norme d’application se substituer à la règle de droit elle-même22. Le juge serait alors presque obligé de se soumettre à la prédiction de l’algorithme. C’est en cela que la justice prédictive pourrait devenir une « prophétie auto-réalisatrice »23 (self-fulfilling prophecy). Il s’agit d’une définition d’abord fausse d’une situation, mais cette définition erronée suscite un nouveau comportement, qui la rend vraie. C’est une assertion qui induit des comportements de nature à la valider24. En suivant cette logique, la justice prédictive présentera X chose comme ce qui apparaît être une situation normale et obligerait le juge à s’y conformer.
La matérialisation de l’effet performatif est exponentielle dans la mesure où la réaction d’obéissance qu’elle entraîne renforce alors l’algorithme dans la réalité de son énoncé25. Dans sa fonction d’aide à la décision à disposition du magistrat, la justice digitale aurait un effet performatif indirect. L’intelligence artificielle prédit la décision du juge à partir de données accumulées dans une base contenant des décisions antérieures. La démarche invite donc à reproduire le passé, en ne permettant pas d’évolution. Il s’agit là d’un risque majeur.
Par ailleurs, cette révolution numérique n’engendrerait-elle pas une soumission à la gouvernance des nombres, telle qu’Alain Supiot l’a récemment pensée26 ? Or la justice doit conserver son objectif de rendre à chacun son dû, et non pas consister en l’ajustement mécanique d’hommes auxquels on voudrait épargner la peine d’avoir à se rencontrer27. Le droit, dans son essence, cherche, avec humanité, à concilier les grands équilibres, en ce qu’il est protecteur du faible contre le fort. Il n’est pas certain que l’algorithme puisse se fonder, autant que l’homme peut le faire, sur ces valeurs, pourtant essentielles dans notre système juridique et judiciaire. La normativité technique ne doit pas se substituer à la normativité de l’algorithme28. Le numérique opère un bouleversement profond des pratiques sociales et la justice s’en trouve également impactée. Il ne faut pas oublier que le recours aux algorithmes doit être complémentaire dans le travail du juge, et non pas se substituer intégralement à lui…
Notes de bas de pages
-
1.
JO n° 0077, 29 mars 2020.
-
2.
JO n° 0077, 29 mars 2020 : « Ce décret autorise le ministre de la Justice à mettre en œuvre, pour une durée de 2 ans, un traitement automatisé de données à caractère personnel, dénommé “DataJust”, ayant pour finalité le développement d’un algorithme destiné à permettre l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées. »
-
3.
Januel P., « DataJust : un algorithme pour évaluer les préjudices corporels », Dalloz actualité, 1er avr. 2020.
-
4.
Dondero B., « Justice prédictive : la fin de l’aléa judiciaire ? », D. 2017, p. 532.
-
5.
CNIL, Comment permettre à l’Homme de garder la main. Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 déc. 2017, p. 16.
-
6.
Stone H., Introduction to computer organization and data structures, 1972, McGraw-Hill Book Compagny.
-
7.
Hand D., Manila H. et Smyth P., « Principles of data mining », Drug safety 2007, vol. 30, n° 7, p. 621-
-
8.
622.
-
9.
Langley P., « Applications of machine learning and rule induction », Communications of the AC, 2002, vol. 38, n° 11, p. 54.
-
10.
Charniak E., Introduction to artificial intelligence, 1984, Addison-Wesley, p. 2.
-
11.
Amaro R., « L’“ubérisation” des professions du droit face à l’essor de la legaltech », Dalloz IP/IT 2017, n° 3, p. 163.
-
12.
Coustet T., « L’utilisation de l’outil Predictice déçoit la cour d’appel de Rennes », Dalloz actualité, 16 oct. 2017 ; Prevost S. et Sirinelli P., « Madame Irma, Magistrat », Dalloz IP/IT 2017, n° 11, p. 557 ; Benesty M., « L’open data et l’open source, des soutiens nécessaires à une justice prédictive fiable ? », JOAL 2017, vol. 5, p. 201.
-
13.
Dondero B., « Justice prédictive : la fin de l’aléa judiciaire ? », D. 2017, p. 532.
-
14.
Dupré J. et Levy Vehe J., « L’intelligence artificielle au service de la valorisation du patrimoine jurisprudentiel », Dalloz IP/IT 2017, n° 10, p. 500.
-
15.
Dupré J. et Levy Vehe J., « L’intelligence artificielle au service de la valorisation du patrimoine jurisprudentiel », Dalloz IP/IT 2017, n° 10, p. 500.
-
16.
Cadiet L. (dir.), L’open data des décisions de justice. Rapport au ministre de la Justice, nov. 2017, p. 23.
-
17.
Garapon A., « Le jugement judiciaire aux prises avec de nouvelles “formes de vérité“ : marché, calcul, numérique », Archives de philosophie 2019, p. 286.
-
18.
Vigneau V., « Le passé ne manque pas d’avenir », D. 2018, p. 1100.
-
19.
Austin J., How to do things with words, 1962, Clarendon Press.
-
20.
Garapon A., Bien juger : essai sur le rituel judiciaire, 1997, Odile Jacob, p. 209.
-
21.
Garapon A., Bien juger : essai sur le rituel judiciaire, 1997, Odile Jacob, p. 209.
-
22.
Garapon A., « Les enjeux de la justice prédictive », JCP G 9 janv. 2017.
-
23.
Benoît D., « De l’émergence de “nouvelles réalités” : les ”prédictions créatrices” », Revue internationale de psychosociologie 2007, vol. XIII, n° 29, p. 49.
-
24.
Croze H., « La factualisation du droit », JCP G 9 janv. 2017.
-
25.
Benoît D., « De l’émergence de “nouvelles réalités” : les ”prédictions créatrices” », Revue internationale de psychosociologie 2007, vol. XIII, n° 29, p. 49.
-
26.
Ferrié S., « Intelligence artificielle : Les algorithmes à l’épreuve du droit au procès équitable », JCP G 9 janv. 2017.
-
27.
Supiot A., La gouvernance par les nombres. Cours au Collège de France, 2012-2014, 2015, Fayard, p. 103.
-
28.
Garapon A., La justice digitale, 2018, PUF, p. 350.
-
29.
Racine J.-B., « La résolution amiable des différends en ligne ou la figure de l’algorithme médiateur », D. 2018, p. 1700.