Le droit va-t-il disparaître dans les algorithmes ?
Les annonces alarmantes ou sensationnelles concernant l’intelligence artificielle occupent tous les terrains y compris celui du droit.
Dès 1978, le législateur s’était intéressé aux risques qu’elle représentait sur la vie privée et la prise de décision.
Les impacts, quoique limités aujourd’hui, peuvent s’étendre à tous les domaines du droit.
Il est urgent que les juristes, magistrats et enseignants-chercheurs s’impliquent à nouveau dans le design et l’éthique de la legaltech s’ils ne veulent pas que le Code informatique devienne la nouvelle loi.
Dans un article récent du journal Le Monde, deux questions posées par un mathématicien traduisaient ainsi la crainte face à la gouvernance des algorithmes : peut-on admettre qu’une machine juge une personne ? Et pourra-t-on porter plainte contre un algorithme1 ? De façon claire, la justice était interpellée – comme les nombreux secteurs qui pourraient être touchés par l’intelligence artificielle (IA) – à travers ce qu’on appelle la legaltech. Mais ces questions, séduisantes pour l’esprit, proches de scénarios de science-fiction, ont-elles un fondement, voire une raison d’être, dans le monde du droit, au-delà de leur dimension à peine provocatrice ? Si aujourd’hui le secteur de l’IA tente d’apporter ses propres solutions, parfois sous l’alibi de l’éthique, a-t-on encore besoin des juristes pour y répondre ?
L’IA a connu une première vague d’applications : c’était dans les années 1990. Face à la décision artificielle qui suscitait déjà quelques frissons, la loi avait anticipé le problème en Europe. En 1978, l’article 2 de la loi française Informatique et libertés avait répondu qu’aucune décision de justice ne pouvait être prise sur les fondements d’un algorithme (profil). Elle ajoutait qu’une décision administrative ou privée (celle d’un organisme de crédit par exemple) pouvait l’être mais qu’une intervention humaine était nécessaire avant que la décision soit opposable. La loi avait donc planté ses balises. En clair, une décision juste ne devait être prise, au bout de la chaîne algorithmique, que par un être humain.
Que s’est-il passé en 30 ans ?
30 années plus tard, parce que les données sont devenues des big data, l’IA – qui est souvent le nouveau terme pour informatique appliquée – est convoquée pour trouver et imposer des solutions qui peuvent avoir des effets à plus vaste échelle : celle d’affecter les choix des étudiants dans les universités par exemple. Les applications ne sont pas encore très nombreuses mais pourtant elles sembleraient menacer soudain les institutions, les principes, les règles de droit. Faudrait-il inventer un droit nouveau ? Pourtant, a priori, le droit continue à tourner, comme la Terre au temps de Galilée.
L’IA de 2018 ne comprend pas mieux les raisonnements humains, elle ne sait rien de plus sur ce qu’est la justice, elle est seulement passée du côté du marketing, c’est-à-dire de l’optimisation des choix. Alors qu’elle était utilisée pour améliorer la prise de décision, aujourd’hui elle a pour objectif le management. Le problème éthique ou juridique est mis au second plan au profit d’un calcul sur les risques.
Mais à quoi sert le droit ?
Le droit n’est pas dans l’optimisation. Il a ses règles de fonctionnement et de procédure et doit appliquer, non des logiciels, mais des règles de droit. Tout ceci pour que la société, de plus en plus complexe dans le monde dans lequel nous vivons, s’y retrouve en termes de justice à travers le fonctionnement des institutions. La lente construction humaine qu’est le droit s’est nourrie de millions de cas et de normes. Des jurisconsultes, des théoriciens du droit ont exploré les ressources cognitives du langage humain pour résoudre les conflits, trouver de nouvelles solutions et même provoquer des revirements de jurisprudence. Pourquoi ne pas faire confiance au droit ?
Les questions qui sont posées à l’ère de la legaltech ne sont pas de nouvelles questions et les solutions ne vont pas surgir en dehors de cette connaissance immense que constitue le droit et qui ne peut se réduire à des données. Non, un algorithme ne jugera pas un humain. Non, on ne pourra pas porter plainte contre un algorithme. La justice continuera d’être rendue avec ses insuffisances humaines et tout justiciable pourra faire un recours contre une décision, prise ou non sur le fondement d’un algorithme.
Le défi éthique que les professionnels du droit, théoriciens et praticiens, doivent relever aujourd’hui est de repenser la réponse normative, en remettant en cause ce qui doit l’être et en adaptant des solutions, en fonction des techniques cognitives du droit. Non, le monde du droit – comme partout où il existe des compétences, des métiers et des savoirs nouveaux à enseigner – devra être capable d’inventer et de proposer à la société ses propres réponses. Ou bien il disparaîtra dans les algorithmes.
Notes de bas de pages
-
1.
Bourcier D. et De Filippi P., « Les algorithmes sont-ils devenus le langage ordinaire de l’administration ? » in Cluzel L., Koubi G. et Tamzini W., Lectures critiques du Code des relations publiques et administration, 2018, Lextenso, p. 193-21.