DataJust : « Plutôt que de faire de la justice prédictive, il faut engager une démarche d’indexation et de tri des décisions »

Publié le 27/01/2022

Suite aux révélations d’Acteurs publics, la Chancellerie confirme l’abandon de l’expérimentation DataJust. Publié le 29 mars 2020, en plein confinement (lire notre article « Qui a peur de DataJust ? »), un décret autorisait la création d’un algorithme d’indemnisation du préjudice corporel. Il devait permettre, sur la base du traitement de la jurisprudence, de renseigner les personnes sur les sommes qui pouvaient leur être dues et d’aider les magistrats dans leurs décisions. A l’époque, les spécialistes avaient mis en garde sur l’extrême complexité de la matière et l’impossibilité à leurs yeux de bâtir un outil fiable. La suite leur a donné raison. Face aux difficultés, la Chancellerie a jeté l’éponge. Il est apparu en effet que l’extraction des données n’était pas complètement automatisable, notamment en raison de l’absence de formatage des décisions.  Malgré tout, décision a été prise de rendre publics les codes sources. Par ailleurs, le ministère se félicite de la montée en compétence de ses équipes sur le sujet, qui ne pourra que les aider dans l’accompagnement de l’open data des décisions de justice. 

Aurélie Coviaux, avocat au barreau de Paris, membre de l’ANADAVI (Association nationale des avocats de victimes de dommages corporels) fait partie des spécialistes qui ont alerté lors de la sortie du décret  DataJust. Pour autant, elle ne rejette pas en bloc l’intelligence artificielle, bien au contraire. 

DataJust : "Plutôt que de faire de la justice prédictive, il faut engager une démarche d’indexation et de tri des décisions"
Photo : AdobeStock/xyz+

Actu-Juridique : Lors de la publication du décret DataJust au printemps 2020, vous aviez émis de nombreuses inquiétudes, êtes-vous soulagée que la Chancellerie abandonne son projet ?

Aurélie Coviaux : C’est une bonne nouvelle, qui d’ailleurs ne me surprend pas. Le décret était mal conçu. D’abord parce qu’il comportait des erreurs. Par exemple, il citait parmi les éléments qui devaient être pris en compte les pertes de gains professionnels alors qu’on ne peut en tirer aucune conséquence car cela dépend du salaire des personnes. De même, il évoquait les prédispositions pathologiques, alors que la jurisprudence de la Cour de cassation interdit qu’on les prenne en compte. Le texte n’était pas clair quant à la distinction entre les jurisprudences civiles et administratives, on ne comprenait pas si elles allaient être fondues ou traitées séparément. Or, ce ne sont pas les mêmes droits, ni les mêmes montants alloués, pensait-on à deux algorithmes ou un seul ? Tous ces éléments donnaient le sentiment que les concepteurs du futur algorithme n’avaient pas pris l’entière mesure de la complexité du sujet.

A cela s’ajoutait une difficulté majeure liée à la lecture des décisions : elles ne sont jamais standardisées et souvent très complexes à comprendre et analyser.  Par exemple, il faut être un professionnel pour déterminer quelle décision est pertinente ou pas. Seul un spécialiste peut savoir si une demande correspond réellement au préjudice ou si la somme allouée est inférieure à ce qui aurait pu être prononcé simplement parce que la demande a été mal formulée et que le juge ne peut pas s’en émanciper.

Et puis le chiffre, c’est du droit. En fonction de la qualité du régleur, certains préjudices sont indemnisés ou pas. Par exemple, la prestation de compensation du handicap n’est pas déduite selon que c’est le FGAO (Fonds de Garanties des Assurances Obligatoires de dommages) ou le FGTI (Fonds de Garantie des Victimes des actes de Terrorisme et d’autres Infractions) qui va indemniser la victime. En résumé, c’est un droit extrêmement complexe, transversal, que l’on trouve à peu près dans tous les domaines, civil, pénal, social, administratif, qui obéit à chaque fois à des règles différentes. C’est pourquoi l’on ne pouvait que s’inquiéter à l’idée que l’on tente, à partir de cette diversité et de cette complexité, de fabriquer un algorithme.

Actu-Juridique : Pensez-vous que ces difficultés soient à l’origine du renoncement ?

AC : C’est en tout cas ce que je crois comprendre à la lecture des articles. Il y avait aussi des problèmes de principe, par exemple celui de l’appréciation in concreto, ou encore celui de l’interdiction de l’indemnisation forfaitaire. Bien sûr qu’il existe des barèmes et qu’ils sont toujours seulement « indicatifs ». Mais, dans les faits, lorsque le payeur se présente dans une posture d’autorité en brandissant un barème marqué du sceau du gouvernement , il est facile de convaincre les victimes qu’elles n’obtiendront rien d’autre que ce qui est écrit. Il est à craindre qu’elle se laissent abuser et ne voient pas même l’intérêt de prendre un avocat. C’est à se demander d’ailleurs, si le but poursuivi n’était pas précisément de détourner les justiciables du juge.

Cet algorithme posait aussi un problème lié à l’effet performatif : en sortant une solution fondée sur les précédentes décisions, il incitait le juge à copier le juge et donc à aller à l’encontre du droit pour le justiciable à une jurisprudence évolutive. Il faut rappeler en effet que la jurisprudence n’est pas impérative et qu’on s’exposait donc à bouleverser les équilibres de jugement. S’il ressortait de la rédaction du décret qu’il n’était qu’une aide à la décision pour les magistrats, l’objectif était moins clair s’agissant des victimes. Le danger c’était donc que les justiciables y voient un barème automatique et renoncent à faire valoir leurs droits. S’il est normal qu’elles cherchent à avoir une idée de ce qu’elles peuvent espérer percevoir, ici leur quête d’information légitime les exposait à la manipulation et à la mésinformation.

Actu-Juridique : Faut-il pour autant renoncer aux algorithmes en matière de réparation du dommage corporel ?

AC : Bien au contraire, mais il faut leur demander ce qu’ils savent faire : l’aide à la recherche. Le dommage corporel est une matière où il y a énormément de décisions de jurisprudence et qui est très évolutive. Par exemple, c’est en 2015, après le livre Blanc d’un collectifs d’avocats, puis le rapport de la commission Porchy-Simon, que le préjudice d’angoisse a été pris en compte pour les victimes d’actes de terrorisme. Les spécialistes sont confrontés à un vrai besoin : accéder aux décisions pertinentes et pour cela, on a besoin de l’IA. Or, pour l’instant il n’existe pas d’outil performant. A titre d’exemple, la Cour de cassation vante les mérites de son nouveau site et met à disposition un système d’index et de recherche pour isoler les décisions par centres d’intérêt, je l’ai testé et je n’ai pas retrouvé un dixième des arrêts que j’ai déjà isolés avec ma propre veille. Sachant que le décret Open data du 29 juin 2020 a fixé au 30 septembre 2025 l’ouverture de l’accès aux décisions des tribunaux judiciaires, il va falloir concevoir des outils de recherche pour gérer la masse de jugements à laquelle on va brutalement accéder. Plutôt que de tenter de faire de la justice prédictive, il faut engager cette démarche d’indexation et de tri qui permettra aux praticiens de trouver les décisions pertinentes sans les priver de leur capacité d’analyse des décisions de justice et donc de profiter réellement de leur richesse.

 

 

 

 

X