Les systèmes d’intelligence artificielle arrivent !

Publié le 01/09/2023
Les systèmes d’intelligence artificielle arrivent !
Feodora/AdobeStock

La diversité des débats sur l’intelligence artificielle exige de multiples précautions. Il convient déjà de savoir si la discussion ou un propos porte sur une science, sur le phénomène social qui confine à la politique ou sur les capacités de tel ou tel système d’intelligence artificielle (SIA). Pour éviter des quiproquos, le discours juridique doit encore préciser s’il discute du droit de l’intelligence artificielle en formation pour tous, ou bien des activités juridiques avec les futurs SIA, notamment celles des professionnels du droit. Souligner la place centrale des SIA contribue à structurer le débat pour entrevoir le choc épistémologique qu’une audace fait anticiper.

1. Une science. L’intelligence artificielle (IA) est une matière, une science, une branche de l’informatique et de la mathématique et/ou de la logique. De ce point de vue, l’existence de l’IA n’est pas, en soi seule, capable d’impacter (magique néo-verbe !) la société. Cette discipline fait peu parler d’elle en tant que telle dans le débat public parce que cela supposerait d’être un scientifique, spécialiste, ayant à la fois du recul sur la discipline, des vues pratiques pour tenir à distance les actualités vénielles et l’art d’un discours de synthèse. Ces pratiques sont du reste majoritairement le fait d’entreprises industrielles ou de services qui développent des programmes d’IA, les alimentent de données et les implémentent. Ainsi surviennent les SIA. Demain, elles les vendront ou les utiliseront pour rendre leurs services. Dans ce magma économique mondial, le secteur juridique est marginal, ce que le discours juridique sur l’IA, riche et multiforme, fait trop oublier.

2. Un phénomène. L’IA est aussi un phénomène qui agrège la science en cause, les débats publics et l’économie qui va la faire émerger. Le terrain naturel de l’IA est le monde des entreprises car la part publique pourrait être réduite1 malgré des cas significatifs mais singuliers (les armées, les drones et robots combattants, la recherche atomique…). L’IA sera généralisée et prégnante avec les entreprises qui créeront et opéreront des SIA. Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ou GAMAM (Facebook étant devenu Meta), et quelques autres, semblent réunir la discipline de l’IA (des experts) et les créations de SIA (œuvres d’ingénieurs) tant les capacités de ces entreprises (financières, technologiques et autres : leurs stocks des données) sont gigantesques. Ces « entreprises-monde » surpassent la mondialisation des sociétés dites internationales. Les GAMAM renouvellent une part de l’économie mondiale, du moins certains de ces modèles : l’intermédiation est devenue une industrie. Distinguons la discipline de son accaparement par ces entreprises pour ne pas confondre une science et un oligopole, ce qui néanmoins constitue un phénomène social.

3. Des systèmes. Dans un troisième sens ou selon un troisième angle, l’IA n’est plus une science ou un phénomène social pour consister en des systèmes, les SIA. Ils sont les produits des entreprises privées. Les SIA rapprochent des réalités : ce sont eux que l’on fabrique, livre, que l’on utilise et entretient (mettre ces verbes au futur rend peut-être la phrase plus exacte). Les SIA sont un et multiples. Tel le moteur à explosion ! Il est un mais les technologies suscitées sont multiples : voiture, moto, tracteur, avion, compresseur produisant de l’électricité, tronçonneuse, etc. Ces systèmes mécaniques ont chacun leurs sens, forces, risques et ils ont même, par la grâce de quelques décennies législatives, leur statut réglementaire : tous différents. Le moteur à explosion est peu réglementé, ses applications le sont bien plus et nettement. Le droit du tracteur est bien différent de celui des motos. Cela laisse entrevoir ce qui pourra se passer en législation, après le prochain et très général règlement de l’Union européenne (UE)2. S’agissant d’une réalité intellectuelle nouvelle, on comprend que le législateur veuille cerner la question. Pourtant, les systèmes seront une réalité industrielle concrète. Au-delà de quelques principes, c’est par la pratique contractuelle voire par la pratique tout court que les divers SIA seront identifiés et appréhendés, puis par des règles d’application précises. Les SIA se distingueront bien les uns des autres et il n’est pas certain que l’idée d’un « droit de l’intelligence artificielle » tienne ou soit, à terme, très utile sinon pour une désignation académique (le chapitre d’un cours de droit du numérique ?)3. En somme, et à un autre niveau, la possibilité existe que chaque secteur ou domaine d’application assimile la thématique « IA » en donnant l’identité précise des divers systèmes qu’ils utiliseront.

4. SIA. La difficulté du sujet est donc de savoir de quoi on parle, voire de quoi on parlera probablement. Le discours sur l’IA porte généralement – implicitement – sur tel système qui, encore mal identifié, est supposé disruptif et/ou maléfique, parfois idéalement constructif ou progressif. La plupart des publications concernent les SIA, encore que lesdits systèmes (ou machines…) ne soient pas déjà toujours tangibles, accessibles ou bien compréhensibles4. Mais il en est discuté en tant qu’« IA ». L’objet est contourné pour envisager ses finalités ou les rapports induits avec l’humain. Le thème de l’IA prospère alors, paradoxalement, pour envisager les faiblesses humaines (les fraudes ou détournements de la machine par des personnes peu scrupuleuses ou les influences sur l’humain susceptibles de confondre le système avec un rapport humain). Le juriste saura traiter ces difficultés qui, au fond, exigent une classique protection des personnes par la règle de droit. Voilà qu’implicitement sont néanmoins en cause les systèmes.

5. En voiture ! Il est ainsi discuté depuis cinq ans de la voiture autonome qui incorpore un SIA qui mettra pourtant des années avant d’être un problème quotidien du citoyen. Or, le législateur n’intervient idéalement que lorsqu’il est face aux problèmes concrets et à l’opinion publique (qu’il doit entendre sinon satisfaire). Aujourd’hui, un autre SIA captive, bien qu’il se réduise à un ordinateur offrant un service en ligne – certes remarquable : les IA génératives produisent du contenu sur une demande. On peut en sourire, non en rire. Ces succès d’un système d’IA qui saisit les médias et le public conduisent aux commentaires les plus divers et éphémères à la suite d’« essais » souvent anecdotiques. Périodiquement, un nouveau système captive les esprits. Chacun laisse sa trace et se fait sa place. Un grand handicapé qui remarche à l’aide d’un système lisant et exécutant ses pensées en témoignerait mieux que quiconque.

6. UE. Le Parlement européen vient d’adopter la proposition de règlement de 20215, texte qui pose le débat en termes de SIA. Il est cependant toujours discuté de « l’IA » un peu dans tous les sens et sous tous les angles. Pour le juriste, l’analyse doit porter sur les divers systèmes ou types de systèmes et tout propos doit se rattacher à des systèmes. C’est ce que fera ce règlement alors même que ses dispositions sont, majoritairement, générales, des principes. Les catégories de SIA proposées par le règlement selon le critère du risque ont été dites et bien décrites6.

7. Discussions. L’IA peut cependant être étudiée et discutée en général pour être dénoncée, adorée ou peaufinée. Discuter sur le plan général est délicat. À titre d’exemple de ce type de débats, un spécialiste (non simple juriste ou philosophe) qui crée des systèmes, jugés comme étant des IA remarquables, dénie le sujet dans L’intelligence artificielle n’existe pas7. D’autres ne se privent pas de juger à l’inverse que l’IA, prégnante, changera tout ! C’est une liberté que d’avoir des opinions générales…

8. Précisions. La discussion s’enrichit quand on discute en distinguant l’IA comme science, le phénomène social ou les SIA. Ce dernier angle aide quand l’analyse porte sur une utilisation, une définition, un risque, une action, une importation, un contrat ou une hypothèse de responsabilité. Le fait importe d’autant plus que, même ainsi cadrées, ces situations demeurent imprécises. Seule la commercialisation généralisée de SIA clôturera la propension à faire du droit putatif sur des systèmes putatifs. Les premières querelles (judiciaires ou autres) concrétiseront questions et réponses, mais actuellement le contentieux n’existe pas. Des questions ne sont pas officiellement ou publiquement posées qui concerneraient des SIA en médecine, en urbanisme et construction, en transport, dans les services publics…

9. Sujet mouvant. Au fond, le sujet appelle des précautions de méthode, de la prudence et souvent plus : des réserves. Il faut notamment s’exprimer sous réserve que la technologie ne règle pas le problème examiné avant qu’il ne survienne, ou que tel système inquiétant ne soit finalement pas commercialisé, ou encore que le point sensible soit autorisé ou interdit en droit positif – n’en déplaise ici ou ailleurs. À défaut de réserves marquées, le lecteur qui s’initie s’égare avec des problèmes davantage en voie de formation que de résolution. Cela peut justifier une défiance pour le sujet que l’on pourra réduire à une énième et ordinaire évolution technologique. Or, si on peut par exemple le penser de la blockchain, autre sujet à la mode, qui affecte l’essentiel (le contrat, la preuve, les biens), le penser de l’IA serait oublier qu’elle exprime carrément le projet informatique depuis la Seconde Guerre mondiale.

10. L’informatique. L’affaire, technologique8, n’est pas d’essence juridique – pas plus que ne le fut le moteur à explosion. L’IA et les SIA intéressent tous les secteurs professionnels dont la petite part du secteur juridique. Le juriste peut se convaincre de l’inverse depuis son monde de systèmes juridiques et judiciaires nationaux, européens et internationaux. Si le droit infiltre en outre tous les secteurs (tout SIA fera l’objet de commandes, contrats, cas des responsabilités…), cela ne permet pas au juriste de finement comprendre de quoi il retourne et retournera. Or, cette évolution décuple le besoin de compréhension car l’étape technologique de l’IA semble devoir affecter la fabrique du droit ! Alors le juriste réfléchit pour tous et pour lui au phénomène de « boite noire », à l’explicabilité qui la rendrait transparente, à l’algorithme, au risque de remplacement de l’humain, à l’éthique, à l’exigence d’essais et de corrections… comme si sa légitimité était naturelle et l’affaire juridique.

11. Intelligence. Les SIA sont systèmes car ils unissent des programmes, soit des processus élaborés en langage informatique, implémentés sur un ordinateur, intégré ou pas à une construction industrielle (voiture ou toute autre sorte de robot), et ils performent grâce aux données qui leur ont conféré des capacités d’identification et d’action. Même remarquables, les SIA diffèrent du cerveau humain dont la plasticité lui assure une immense polyvalence. Le cerveau humain se fatigue cependant vite, n’acquiert qu’une petite partie des données disponibles au monde, ne sait en utiliser qu’une faible part, commet de nombreuses erreurs et corrige difficilement ses biais (on retourne le reproche ordinairement adressé à la machine). Voilà assez pour dire que le travail du système s’apparente à l’intelligence humaine (la blessure narcissique infligée à l’humain se refermera lentement) : son activité ébauche une forme d’intelligence. Peu importe, pour la politique ou la politique juridique, que ce soit précisément ou scientifiquement le cas. Le fait est assez significatif pour appeler des lois. Certains SIA sont dotés de capacités appelant un traitement, ce que fera le futur règlement UE.

12. Situations. Tous les secteurs professionnels ou publics sont concernés par le phénomène de l’IA et pour des SIA très différents.

D’un côté, les professionnels des services informatiques (numériques…) s’adresseront à tous ces secteurs, à l’instar de tout fournisseur qui rend un service ou vend un matériel réglementé. Les juristes ont besoin de comprendre de quoi il retourne pour assister cette catégorie de professionnels, leurs clients. Seuls ceux-là sont probablement aujourd’hui à la pointe du sujet (pour comprendre l’IA), avec la lourde tâche de trouver les millions d’investissement pour transformer les idées et marchés potentiels en SIA les concrétisant. Les juristes spécialistes en IP/IT, au prix de quelques efforts, répondront bien aux besoins juridiques en cause.

Nombre de professionnels, de l’autre côté, utiliseront des SIA directement (acquisition) ou indirectement (locations de service). Les obligations d’information et de conseil qui pèseront sur les fournisseurs les aideront. Ils auront eux-mêmes à assumer les innombrables obligations à l’égard de leurs clients, souvent de probables consommateurs. Jamais ce contexte n’a été jugé, avec cette évolution technologique (scélérate), comme étant à ce point de nature à porter une atteinte à l’âme humaine. Tout juge se dressera pour que le client soit satisfait, remboursé, indemnisé… le droit commun jouera inspiré par le règlement UE ; le risque est de friser la caricature d’un droit tellement protecteur qu’il pourrait décourager les ingénieurs et entrepreneurs. Pour plaider des récriminations et indemnisations, il y aura des juristes ; il n’y a pas de complexité à plaider des obligations nouvelles ou renforcées à l’aide d’une bonne expression la désignant.

13. Obligations. Pour les professionnels mettant en œuvre les SIA, pour eux-mêmes ou pour des consommateurs, les systèmes à haut risque seront principalement ceux à administrer. Selon la proposition de règlement UE, ils devront incorporer un processus de gestion des risques (art. 10), une surveillance, détection et correction des biais par une politique contraignante de gouvernance des données d’entraînement, de validation et de test (v., sur les définitions relatives aux données, art. 3, 29 et 33), une journalisation (art. 12), des obligations d’information à destination des utilisateurs (art. 13), des obligations de robustesse, d’exactitude et de sécurité (art. 15) et l’article 14 prévoit la surveillance humaine : « La conception et le développement des SIA à haut risque permettent, notamment au moyen d’interfaces homme-machine appropriées, un contrôle effectif par des personnes physiques pendant la période d’utilisation du système d’IA », et « le contrôle humain vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux ». Sont détaillés les moyens du contrôle, dont au maximum l’utilisation d’un « bouton d’arrêt » entravant le système. La première mesure possible est en partie naïve : « Appréhender totalement les capacités et les limites du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, afin de pouvoir détecter et traiter dès que possible les signes d’anomalies, de dysfonctionnements et de performances inattendues ». Le cœur du régime des SIA imposera à ces divers professionnels de faire du droit !

14. Remplacement ? Pour le secteur juridique, la question de « l’IA en droit » anime les esprits non sans excès. Le juge ne sera pas remplacé. L’avocat non plus. Ni le commissaire de justice… Le greffier témoin du long processus judiciaire non plus (il en sera encore le maître quand tout dossier sera une blockchain… inviolable…). Si certains systèmes reproduiront bien certains de leurs actes, l’effet jouera surtout sur le nombre des acteurs ou sur leur méthode de travail. Il y a d’ailleurs un obstacle politique à ce remplacement, à raison de principes juridiques à connotation constitutionnelle. Le juge, notamment lui, est par définition une personne physique assumant une fonction étatique pure : politique (comme le législateur…). La stricte question de son remplacement est donc en soi et à ce jour ubuesque (il faut aviser à horizon raisonnable).

15. Une aide ! En revanche, la question – encore spéculative mais réaliste – se pose de savoir quels sont les SIA que le juriste, juge, avocat ou autre, pourra utiliser demain. Les études sont là moins nombreuses (non ?). Il faut alors dépasser les perspectives simples appelant à une justice humaine ou anticipant exagérément la disparition du juge ou d’un autre professionnel du droit. Du reste, pour la fonction juridictionnelle, il est probable que les SIA profiteront au juge, ce qui réduira l’intérêt de son remplacement. Tant que le juge aura seul le pouvoir de retenir la motivation et le dispositif utiles, quelles que soient les étapes préparatoires par des SIA, la justice sera humaine, et le juge irremplaçable (l’IA impose de travailler la notion de décision). Une grande aide des systèmes dits intelligents confortera même la fonction de juge alors que, par exemple, les commissions de sanctions des régulateurs ont, elles, effectivement rogné le domaine du juge (la régulation est le véritable quatrième pouvoir).

16. Investissements. Le problème est différent pour les avocats qui, d’ailleurs, apporteront probablement les bienfaits (et défauts) des SIA au juge. Les avocats trieront les « énoncés » des SIA qui pourront être incomplets, contradictoires, trop approfondis… ou parfois grotesques. Les avocats ont intérêt à au moins envisager le recours à des SIA qui restent à inventer et fabriquer. Les (très) grands cabinets vont avoir les moyens (intellectuels) pour déterminer les tâches que les SIA pourraient exécuter sous leur autorité. Surtout, ils auront la capacité d’investir les dizaines de millions d’euros pour créer ces SIA. Les divers organes collectifs de la profession, eux, seront-ils capables de créer des systèmes utilisables par tous les membres de la profession ? La même question se pose pour les grandes entreprises et leurs services juridiques (elles devraient initier des coopératives pour créer des SIA juridiques, le droit des sociétés et le droit des obligations peuvent justifier un ou des SIA communs).

17. Des énoncés ? La production (intellectuelle ?) des SIA est difficile à qualifier, si tant est qu’on s’y essaye. Pour certains SIA, partie d’un appareil, le calcul donne une instruction que la machine en cause exécute. L’automatisation est à la fois réduite et augmentée : la machine réagit après calcul (examen des données) ; l’énoncé vaut instruction exécutée.

Le terme « énoncé » désigne commodément la production des SIA.

Les SIA juridiques produiront des projets divers (modèle général ou projet personnalisé de contrat, de conclusions, d’actes divers…). Ces SIA seront généralistes (ChatGPT en signale le genre) ou spécialisés. En droit, on pourra avoir avec un angle contentieux, contrat, information (notes et analyses), formalité, etc.

De la loi aux contrats, des demandes judiciaires aux jugements, des rapports d’expertises aux dires, des recours aux notifications, tout est, en droit, affaire d’énoncés en langage naturel, sauf exception (énoncés performatifs et souvent alternatifs que l’informatique traite bien : conditions/effets ; principe/exceptions, etc.). La science de l’IA appréhende assez aisément ces énoncés articulés selon une logique élémentaire ; les 100 000 textes normatifs et leurs millions de prescriptions pourront être traités dans de multiples sens par l’utilisateur d’un SIA.

18. Génératives ! L’idée des « énoncés » est illustrée par l’irruption des IA génératives. N’eût été ChatGPT, un autre système aurait percé dans la décennie. L’expression est déceptive car tout SIA « produit » et est donc génératif – passons. Pour les activités juridiques, il était évident que le premier acte de la « révolution IA » proviendrait de systèmes « écrivant » (des énoncés) des ébauches ou modèles de lois, contrats, assignations ou conclusions, jugements, actes divers (lettres, avis, injonction, recours…) ou opinions, avis, consultations9. Ce stade de révolution comportera diverses facettes. Le juriste fera fonctionner la machine par diverses interrogations ou requêtes, dits « prompts », lesquels sont déjà l’objet de services (proposition de prompts en ligne). Ce sera le premier talent du juriste qui devra ensuite synthétiser les énoncés du SIA. Au lieu de se servir d’un code, de deux manuels, d’une encyclopédie, de blogs, de sites officiels administratifs, le juriste utilisera deux ou trois SIA incorporant notamment toutes ces sources. Les énoncés de pur droit positif – la plupart des textes de juristes – vont perdre leur valeur. À l’opposé de ces considérations pratiques, le procédé d’énoncé interroge sur l’écrit et l’activité de pensée, ce qui ramène aux conséquences du but primitif de l’informatique : copier les procédés cognitifs humains.

19. Choc épistémologique. Pour le droit comme pour d’autres matières, la conséquence des SIA dépassera l’évolution technologique, la révolution économique, les bouleversements psychologiques de l’humain face aux SIA, la réformation de la pensée juridique, la refondation des procédés industriels… Toutes ces grandes questions susciteront d’épais traités sans disposer sur un plan plus général ce qui ce sera produit. La machine sera moins tenue par les actuelles divisions scientifiques qui tiennent beaucoup à un consensus scientifique implicite et diverses données objectives (10 sources et 3 méthodes…). Les SIA démontreront la porosité entre les sciences (outre le fait que l’informatique devient un moyen commun et indispensable à toute science). Ainsi, qu’ils aient des vocations académiques, scientifiques ou économiques, les SIA vont déstructurer et recomposer (avec l’aide humaine…) chaque secteur disciplinaire, les sciences, la science. Le grand changement sera donc un choc épistémologique. Il sera grand pour les juristes qui, s’ils ont des raisons d’être conservateurs (depuis des millénaires, conception et application de la loi ont un fond commun), abusent probablement de cette confortable position. Ce choc affectera le droit, mais la science juridique est une petite science par rapport à celles qui montrent le fin fond de l’univers ou d’une cellule…

20. Parler… ? On peut dépasser ces perspectives gigantesques sans s’éloigner des préoccupations et des capacités des juristes. Ce que fait le système avec les données pour des énoncés (eux aussi des données) touche à la pensée qui intéresse le juriste qui pense et fabrique sa science : le droit (le législateur est par nature juriste). Pour cela, la juriste écrit – formalise ! Mais demain, le SIA qui énoncera (écrira) parlera aussi et le juriste, lui, parlera, sans plus écrire. L’oralité ?! C’est évidemment un sujet de juriste10 bien au-delà des concours oratoires qui participent du folklore autant que de la formation. Le SIA pourra parler ! Certes artificiellement ! À l’identique, il pourra (artificiellement) entendre. L’humain n’aura donc plus besoin d’écrire, faisant de l’écriture une parenthèse de 7 000 ans dans l’Histoire de sapiens de plusieurs centaines de milliers d’années. Ne jurons de rien. Indiquons juste une de ces choses qui semblent indiquer que les SIA seront un choc épistémologique pour retraiter tous les langages et toutes les langues. Sapiens, d’aujourd’hui, en cabinet d’avocat ou en service juridique, pourrait vite éprouver ce tournant millénaire. Il appartient à chacun de savoir s’il doit, ou pas, envisager la chose pour aviser.

Notes de bas de pages

  • 1.
    Le récent rapport du Conseil d’État sur le sujet montre, peut-être à son corps défendant, que l’État n’est ni à la pointe, ni sur le point d’être submergé par les technologies en cause ; les débats de la sphère publique sont néanmoins nourris qui, souvent, arguent l’urgence de maîtriser ou interdire le recours à l’IA pour sauver les libertés, la démocratie et même l’humanité.
  • 2.
    G. Loiseau et V. Bensamoun (dir.), Droit de l’intelligence artificielle, 2022, LGDJ, EAN : 9782275095424.
  • 3.
    C. Castets-Renard et J. Eynard (dir.), Un droit de l’intelligence artificielle, 2023, Bruylant.
  • 4.
    Un débat fut cependant lancé sur la possible personnalité, débat qui occulte plusieurs autres qualifications possibles : « De l’éventualité de quelques qualifications des systèmes d’intelligence artificielle », in H. Boucard et E. Lamazerolles (dir.), Florilège à l’occasion des trente ans de l’Équipe de recherche en droit privé. 30 ans de droit privé, 2023, PU juridiques de Poitiers.
  • 5.
    Le 14 juin 2023, le Parlement européen a adopté sa position de négociation concernant la législation sur l’IA, ce qui est la voie d’achèvement de rédaction du règlement. Les négociations avec le Conseil sur la forme finale du texte sont donc lancées.
  • 6.
    Les systèmes dits à « haut risque » sont le cœur du futur règlement, le dispositif tirant à la compliance (art. 6 à 51), tandis que trois cas de SIA sont vus comme devant seulement faire l’objet d’obligations de transparence (art. 52) ; on peut alors parler de risques faibles (quoique ce sont les systèmes qui sont visés et non les risques). Il s’agit des systèmes destinés à interagir avec des personnes physiques (§ 1), des systèmes de reconnaissance des émotions de catégorisation biométrique (§ 2) et des systèmes qui manipulent une image, un son ou une vidéo qui ressemblent à des personnes, choses ou autres entités ou événements existants afin d’en générer un contenu apparaissant à tort comme étant la réalité (mode dite de deep fake) (§ 3). L’article 5, paragraphe 1, de la proposition de règlement interdit quatre pratiques : « a) systèmes d’IA qui influencent de manière subliminale le comportement d’une personne en vue de lui causer ou de causer à un tiers un dommage ; b) systèmes d’IA qui exploitent la vulnérabilité d’un groupe de personnes en vue de fausser le comportement de l’une de ces personnes et de causer un dommage ; c) systèmes d’IA de notation sociale mis sur le marché, mis en service ou utilisés par les autorités publiques ou en leur nom ; d) systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public, sauf exception ».
  • 7.
    L. Julia, L’intelligence artificielle n’existe pas, 2019, First éditions. La proposition visant à remplacer les mots IA par l’expression « intelligence augmentée » atteint vite sa limite ; certes, à supprimer le sujet, il n’existe pas ou plus mais l’expression proposée ne désigne alors ni une science ni les systèmes mais le fait que l’humain (et non la machine) dispose de nouveaux moyens. Sur ce point, H. Causse, « Le droit sous le règne de l’Intelligence Artificielle », HAL 2023, Essai, p. 80, note 165 et p. 302, note 657.
  • 8.
    On recommande M. Mitchell, Intelligence artificielle. Triomphes et déceptions, 2021, Quai des sciences, postface D. Hofstadter ; pour aller plus loin dans l’histoire et la pensée informatiques, G. Ifrah, Histoire universelle des chiffres, t. 2, 1994, Laffont ; G. Berry, leçon inaugurale, Pourquoi et comment le monde devient numérique ?, 2008, Fayard, Collège de France (Chaire d’Innovation technologique).
  • 9.
    H. Causse, « Le droit sous le règne de l’Intelligence Artificielle », HAL 2023, Essai, p. 452 (chapitre sur ces énoncés et les savoirs qu’ils contiennent).
  • 10.
    H. Causse, « L’oralité devant le juge du commerce, in Mélanges en l’honneur de Daniel Tricot, 2011, Dalloz-Litec. Déjà, on notait la porosité entre oralité et écrit… ce qui est oral est souvent écrit, ce qui est écrit est souvent dit. La forme importe pour devoir exister (sous une forme) qui appréhende (formule) le fond : l’énoncé ?
Plan