Saisir la vague de l’intelligence artificielle ?
En soumettant des conclusions à un tribunal de Manhattan dans le cadre d’un litige civil, un avocat new-yorkais ne se doutait probablement pas que l’on découvrirait aussi facilement qu’il avait utilisé ChatGPT pour générer son argumentaire[1]. Démasqué par les précédents cités (qui avaient été totalement inventés par le système), ce fait divers nous renvoie notamment à la question de l’opportunité de saisir de cette vague technologique. Si vous vous interrogez, pour vous-même ou votre organisation, sur la manière de vous positionner, voici quelques éléments basiques de réflexion.
La mise en ligne de l’outil conversationnel ChatGPT en novembre 2022 a relancé la mode de l’intelligence artificielle, alors que les frimas d’un bel automne commençaient à s’annoncer[2]. Il faut dire que la démonstration d’ingénierie d’Open AI est, à bien des égards, sidérante[3] et qu’elle a effacé en quelques « prompts » les déceptions des promesses non tenues du grand emballement de l’apprentissage automatique et des réseaux de neurones profonds[4].
Avec les derniers larges modèles de langage, le remplacement massif de l’humain par des « IA » bavardes et inventives serait maintenant sur le point de se réaliser. Les performances de ce simulacre[5] opéré par des robots-perroquets ne laisseraient d’autre choix que de s’adapter. L’injonction pourrait être résumée ainsi de manière provocante : s’extasier et l’adopter ou périr en ringard. Spécifiquement dans le domaine du droit, l’on peut s’attendre dans les semaines et mois à venir à une éclosion en série d’outils produisant à la chaîne des contrats, des courriers juridiques, voire des conclusions et de l’analyse juridique[6]. Sans parler des usages isolés et plus ou moins discrets émanant de toutes sortes de professions, dont des magistrats[7] et des avocats[8], contribuant à entraîner gratuitement des modèles et – aussi – à communiquer des données potentiellement sensibles dans les immenses bases de données des entreprises de l’industrie numérique.
Faut-il donc surfer sur cette vague pour ne pas être dépassé ou détourner son regard de l’agitation ?
Un diagramme résumera en fin d’article la série de questions à vous poser si vous vous interrogez sur la conduite à tenir pour vous-même ou votre organisation, qu’elle soit publique ou privée. Trois séries de considérations semblent également devoir être gardées à l’esprit lors de l’instruction que vous mènerez.
Une technologie peu mature, avec des fondements techniques faisant encore l’objet de sérieuses controverses
Tout d’abord, posons-nous la question des fondements scientifiques de cette vague technologique. Le postulat qui ne semble plus discuté par les promoteurs de « l’IA » nous vient de la cybernétique[9], en estimant comme acquis que le fonctionnement du cerveau est comparable à celui d’une machine. Ainsi Yoshua Bengio, célèbre chercheur ayant contribué à l’émergence de l’apprentissage profond, soutient comme un fait constant et établi que : « L’intelligence à un niveau humain est possible parce que les cerveaux sont des machines biologiques[10] ». Or, le sujet reste en réalité débattu. La plasticité du cerveau, démontrée par sa capacité à apprendre des choses nouvelles ou à activer de nouvelles zones pour suppléer d’autres, démontrerait pour des chercheurs que l’acquisition de nouvelles compétences ne s’effectue pas en implantant un programme dans une zone libre, comme on le ferait pour un ordinateur[11]. De plus, les mécanismes d’apprentissage sont tout à fait distincts : s’il faut des dizaines de milliers d’images pour entraîner une machine à distinguer un chat d’un chien, un enfant aura la capacité de saisir les traits caractéristiques d’un animal à partir de très peu d’exemples.
D’autres controverses complexes (voire cryptiques pour les observateurs extérieurs) et dont l’impact est discuté, irriguent les débats entre experts, comme celui de l’indécidabilité des algorithmes d’apprentissage automatique. Pour tenter de vulgariser la problématique, des chercheurs ont révélé que les célèbres théorèmes d’incomplétude du mathématicien Kurt Gödel sont applicables à l’apprentissage automatique : pour mémoire, selon ces théorèmes de logique, la plupart des systèmes formels ne sont ni démontrables ni réfutables. Concrètement, cela a pour conséquence de ne pas parvenir à prouver que ces « IA » font bien ce qu’elles ont « appris », ce qui pose un problème de fond pour des systèmes aussi complexes : personne ne sera en mesure d’établir une méthode générale de vérification de bon fonctionnement[12]. Ce problème est d’autant plus aggravé avec des réseaux de neurones profonds réputés pour être des « boîtes noires » : sera-t-il ainsi acceptable de déployer dans nos systèmes juridiques des outils opaques, dont même les concepteurs ne sont pas en mesure de justifier les résultats ? Où des systèmes qui, comme ChatGPT, inventent des résultats ?
Enfin, nombre de scientifiques comme Luc Julia ou Yann LeCun soulignent bien que l’émergence d’une « IA » comparable à une intelligence humaine ne s’effectuera probablement pas à partir des technologies actuelles et qu’une découverte en recherche fondamentale sera nécessaire pour prétendre approcher une véritable « intelligence » (au sens humain). Beaucoup de chercheurs regrettent ainsi la concentration d’investissements considérables pour les dernières technologies à la mode, au lieu d’explorer des voies originales.
Le débat scientifique qui s’opère encore est donc tout à fait sérieux et typique d’une technologie cherchant sa maturité. Il n’invalide pas l’emploi de ce que nous qualifions actuellement « d’IA », mais il devrait nous conduire à une certaine prudence dès lors qu’il est question de confier le cœur de nos métiers à des systèmes statistiques dont la robustesse est loin d’être établie. Un peu comme si, en tant que transporteur, vous décidiez d’acheter un véhicule doté d’un moteur aux propriétés extraordinaires mais non certifiées, sans certitude qu’il ne vous explose pas à la figure au bout de quelques kilomètres… ou pire, qu’il vous laisse croire à un mouvement alors que vous faites du surplace.
À vous donc d’évaluer les risques pour adopter de « l’IA » au sein de votre organisation et d’établir de possibles plans de repli. En toute hypothèse, comme dans d’autres domaines, il convient de créer le moins de dépendance possible entre vos processus critiques et des systèmes dont vous ne maîtrisez pas le cœur.
Pour les juristes, une représentation très incertaine du système juridique
Là encore, il faut revenir à quelques bases théoriques, censées être connues de tous les juristes. Quand l’on admet que, dans un système juridique donné, deux réponses juridiquement valides mais contradictoires peuvent coexister, la messe est dite pour toute prétention de modéliser correctement ce système par un formalisme mathématique/ statistique. Avec cette texture ouverte[13], ce n’est pas l’apport massif de données fraîches qui résoudra le problème, ou l’ajout de couches de neurones ou de paramètres, mais la capacité à intégrer une bonne représentation sous-jacente du monde et de ses contradictions… en d’autres termes une révolution copernicienne de « l’IA »[14].
De manière hâtive, certains ont pu ainsi penser trouver dans les décisions de justice le matériel nécessaire et suffisant pour en extraire une représentation d’un système juridique (et de son interprétation). Mais Il doit être rappelé, comme l’a mis en lumière la théorie du droit, que le raisonnement judiciaire est surtout affaire d’interprétation. Le syllogisme judiciaire est plus un mode de présentation du raisonnement juridique que sa traduction logique et il ne rend pas compte de l’intégralité du raisonnement tenu par le juge, lequel est ponctué d’une multitude de choix discrétionnaires, non formalisables a priori. De plus, la cohérence d’ensemble des décisions de justice composant la jurisprudence relèverait davantage d’une mise en récit a posteriori, que d’une description stricte de l’intégralité de ces décisions. Dans ces conditions, l’apprentissage automatique n’a qu’une faible valeur ajoutée, la corrélation de régularités lexicales n’étant pas à même de restituer les réelles causalités d’une prise de décision, ni d’en extraire la matière juridique d’intérêt[15].
C’est un peu comme si l’on prétendait représenter statistiquement de manière suffisante la population des cygnes, pour la réduire à une corrélation entre la couleur blanche et l’oiseau, et que l’on tombe plus tard sur un cygne noir[16]. Il est donc surprenant que des juristes, même aguerris, cèdent à des confusions entre statistique et raisonnement juridique ou s’étonnent des approximations des larges modèles de langage. Ces modèles ne font que représenter le formalisme probable de l’enchaînement de mots pour un thème donné et ne pourront guère progresser sans la révolution copernicienne que nous évoquions.
Voilà de quoi renforcer, pour les métiers juridiques, la prudence dans l’adoption de tels systèmes. Si la génération automatique de documents entiers paraît devoir être employée avec la plus grande prudence et ne sera pas nécessairement efficiente (le temps de vérification des documents générés semblant certainement plus coûteux que l’emploi d’un simple modèle de document pour des tâches répétitives), des voies d’aide à la rédaction mériteraient probablement d’être explorées, où « l’IA » proposerait des options de complétion en temps réel (le système T9 des messageries de nos téléphones portables, mais sous stéroïdes). Il n’en demeurera pas moins une totale responsabilité des professionnels, qui devraient pouvoir s’assurer de la fiabilité de fonctionnement de ces outils et de leur caractère conforme à l’éthique de leur métier.
Vers une recomposition des savoir-faire
Substituer un processus technique à un savoir-faire humain est un renoncement. Un renoncement qui a ses gains (de productivité notamment), mais un renoncement tout de même conduisant à la disparition de ce qui pouvait constituer la culture d’une profession. L’histoire des techniques nous l’enseigne et les craintes d’une déperdition des savoirs, artisanaux pour les tisseurs par exemple au XIXe siècle, ont perdu de la substance avec le temps, de nouveaux savoirs se substituant aux anciens modes de production. « L’IA » va incontestablement nous poser cette question, comme l’a déjà posé l’informatisation elle-même en révolutionnant par exemple l’accès à de grandes bases juridiques pour la recherche de doctrine ou de jurisprudence.
Une autre question est celle des effets indirects de ce renoncement, notamment des effets cognitifs sur nos modes d’apprentissage et des effets la manière d’acquérir de l’expérience pour ne pas trop dépendre de ces outils. S’agissant des effets cognitifs, les documentations paraissent se faire de plus en plus précises. La Suède, par exemple, semble avoir établi un lien entre la baisse du niveau scolaire et l’emploi massif d’écrans pour se substituer aux manuels[17]. Sans céder à des discours techno-critiques et réactionnaires, on sait que la forme du support influence les apprentissages de notre cerveau et il faudra probablement encore un peu de recul pour en mesurer les pleins effets. Ce qui est à interroger, avec l’irruption massive d’outils d’aide à la rédaction, c’est la capacité de continuer à pouvoir réaliser de manière autonome, et sans l’appui d’une machine, des actions spécialisées. Le meilleur exemple serait la machine à calculer : loin d’être prohibée des apprentissages, nous apprenons nos enfants à y avoir recours une fois les principes du calcul acquis. Ici aussi, il s’agira de ne pas renoncer lors de la formation des étudiants en droit à la rigoureuse exigence d’identifier par eux-mêmes (et de comprendre) les sources applicables, de construire un raisonnement juridique et d’argumenter. Le recours à des « machines à calculer des probabilités de langage » pourrait être du même ordre, avec une limite théorique de taille : alors qu’une calculatrice n’invente pas le résultat d’une addition, il ne sera jamais certain que notre machine à probabilité, elle, « n’hallucine » pas.
En guise de réponse à la question de l’adoption de l’intelligence artificielle : il n’y aura certainement guère d’autre choix que d’y céder, mais avec discernement
Pour vous-même et vos organisations, il semble donc sage d’initier une adoption prudente, en incitant à la curiosité et à l’innovation, mais en limitant la dépendance avec des entreprises ou de legaltechs parfois plus attirés par des gains immédiats (et aussi de vous faire travailler pour en eux en les nourrissant de nouvelles données, tout en les payant pour que vous puissiez accéder au traitement) que par l’ambition d’installer des produits robustes dans la durée.
De manière générale, lier trop rapidement vos processus critiques à des solutions encore mal maîtrisées, à la maintenance incertaine et aux coûts prohibitifs est probablement une très mauvaise stratégie. Ceux qui vont tirer un avantage compétitif de cette vague de « l’IA » (outre les vendeurs de telles solutions) seront probablement ceux qui auront pris le temps de mesurer les choses (gains réels obtenus, évaluation de l’opportunité et du coût de la refonte du processus métier, capacité de conserver en interne les savoir-faire cruciaux de l’organisation).
Mais ce seront aussi ceux qui auront investi la question de la confiance, pour démontrer aux clients ou aux usagers que ce sont bien des professionnels humains qui gardent la main sur les décisions les concernant, et non, par exemple, une « IA » générative fascinante… mais stupide.
[1] B. Weizer, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, 27 mai 2023, accessible sur : https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html, consulté le 28 mai 2023.
[2] Voir le dossier Artificial intelligence and its limits dans la revue The Economist du 11 juin 2020, notamment An understanding of AI’s limitations is starting to sink in, The Economist, 11 juin 2020 et C. Mims, AI Isn’t Magical and Won’t Help You Reopen Your Business, The Washington Post, 30 mai 2020.
[3] Y. Meneceur, ChatGPT : sortir de la sidération, Actu-juridiques.fr, 28 février 2023, accessible sur : https://www.actu-juridique.fr/ntic-medias-presse/chatgpt-sortir-de-la-sideration/, consulté le 24 mai 2023.
[4] Sur le grand emballement autour des dernières générations d’algorithmes d’apprentissage automatique, v. Y. Meneceur, L’intelligence artificielle en procès : Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020, p.63 et s.
[5] Le théoricien de l’art Mario Perniola donne au simulacre la définition suivante : « moment où la fiction cesse d’être mensonge sans devenir réalité », cité par D. Forest, ChatGPT un simulacre parmi d’autres, Dalloz IP/IT n°324, Mai 2023.
[6] Certains systèmes faisant déjà l’objet d’annonces publiques au moment de l’écriture de ces lignes – V. par exemple « Assistant » de Predictice, qui semble sur s’appuyer sur le moteur d’OpenAI – Predictice lance Assistant : une IA pour répondre à toutes les questions juridiques, Le Monde du Droit, accessible sur : https://www.lemondedudroit.fr/professions/337-legaltech/87461-predictice-lance-assistant-ia-pour-repondre-a-toutes-questions-juridiques.html, consulté le 25 mai 2023.
[7] L. Taylor, Colombian judge says he used ChatGPT in ruling, The Guardian, 3 février 2023, accessible sur : https://www.theguardian.com/technology/2023/feb/03/colombia-judge-chatgpt-ruling, consulté le 28 mai 2023.
[8] B. Weizer, Here’s What Happens When Your Lawyer Uses ChatGPT, op.cit.
[9] Cybernétique, dont les fondements mécanistes portés notamment par Norbert Wiener à l’issue des conférences Macy aux États-Unis, était rejetée par le créateur du terme « intelligence artificielle », John McCarthy. La création du terme doit beaucoup au souhait de McCarthy de s’éloigner de la cybernétique. V. notamment J. Fleck, Development and Establishment in Artificial Intelligence, in N. Elias, H. Martins, R. Whitley, Scientific Establishments and Hierarchies, Sociology of the Sciences Yearbook, vol. 6, Dordrecht, Reidel, p. 169-217
[10] Traduit de l’anglais par l’auteur. V. Y. Bengio, How Rogue AIs may Arise, Blog Yoshua Bengio, 22 mai 2023, accessible sur (anglais seulement) : https://yoshuabengio.org/2023/05/22/how-rogue-ais-may-arise/, consulté le 26 mai 2023.
[11] J-F.Dortier, Le cerveau est-il une machine ? », Les Humains. Mode d’emploi, sous la direction de J-F. Dortier, Éditions Sciences Humaines, 2009, pp. 255-271
[12] R. Ikonicoff, L’I.A. se prend le mur de Gödel, Science&Vie, 24 octobre 2019, accessible sur : https://www.science-et-vie.com/article-magazine/li-a-se-prend-le-mur-de-godel, consulté le 26 mai 2023.
[13] Ph. Gérard, M. van de Kerchove, La réception de l’œuvre de H.L.A. Hart dans la pensée juridique francophone, Revue interdisciplinaire d’études juridiques, vol. 59, no. 2, 2007, pp. 131-171.
[14] V. par exemple S. Sermondadaz, Yann LeCun, L’intelligence artificielle a moins de sens commun qu’un rat, Sciences & Avenir, 24 janvier 2018.
[15] V. par exemple le cas de l’algorithme Datajust où ces difficultés semblent s’être concrètement manifestées, O. Dufour, Qui a peur du décret Datajust ?, Actu-juridiques.fr, 1er avril 2020, accessible sur : https://www.actu-juridique.fr/civil/responsabilite-civile/qui-a-peur-du-decret-data-just/, consulté le 28 mai 2023.
[16] N.N. Taleb, The Black Swan: the impact of the highly improbable, Penguin, 2010.
[17] A-F Hivert, La Suède juge les écrans responsables de la baisse du niveau des élèves et veut un retour aux manuels scolaires, Le Monde, 21 mai 2023.
Référence : AJU369702