Intelligence artificielle et droit : entre tentation d’une personne juridique du troisième type et avènement d’un « transjuridisme »

Publié le 27/03/2018

Pendant longtemps limitée aux seules œuvres de fictions, l’intelligence artificielle se développe aujourd’hui de manière exponentielle. Comme toute innovation, elle soulève, classiquement, de nouveaux problèmes juridiques tels que la détermination de responsabilité des dommages causés par les entités intelligentes. L’intelligence artificielle est ainsi un nouvel objet du droit, que ce dernier encadre et pour lequel certains revendiquent la reconnaissance d’une personnalité juridique nouvelle, la personnalité-robot. De manière plus originale, le droit est lui-même l’objet de l’intelligence artificielle, si bien que l’on peut s’interroger sur l’avènement d’un « transjuridisme ».

D’un fantasme inspirant les plus grandes fictions, l’intelligence artificielle est aujourd’hui devenue réalité. Ross, Watson, I-Cub ou encore Nao, côtoient désormais les R2D2, 6PO ou T-800 emplissant notre imaginaire collectif. Toutefois, ces robots humanoïdes ne sont que la partie émergée de l’iceberg de l’intelligence artificielle. Cette dernière se définit en effet comme l’« ensemble des systèmes électroniques et informatiques qui fonctionnent en essayant de dupliquer ou d’imiter les principes de la réflexion de l’intelligence ou plus simplement certains mouvements ou gestes de l’homme »1. Elle peut donc être incarnée dans des robots dits intelligents mais aussi désincarnée. Elle correspond alors aux logiciels intelligents, aux systèmes experts, capables de reconnaissance vocale, de formes… L’intelligence artificielle innerve maintenant tous les domaines de la société. On en trouve des manifestions en médecine où l’on travaille actuellement sur un robot assistant-médecin ou robot de soins, capable de poser un diagnostic ; en matière de sécurité civile, avec le développement de logiciels de reconnaissance faciale, permettant d’identifier une personne présente à une manifestation par exemple ; dans l’industrie automobile avec la mise au point de voitures autonomes ; en assurance avec l’apparition d’outils capables de calculer, à partir de données provenant de sites internet, de prévoir de futurs sinistres et d’identifier des profils de risques attractifs, de justice prédictive… Les exemples foisonnent. Phénomène en pleine explosion, comparable au machinisme2 des professions intellectuelles, l’intelligence artificielle commence aujourd’hui à être appréhendée par les pouvoirs publics.

Le Parlement européen constatant que « l’humanité se trouve à l’aube d’une ère où les robots, les algorithmes intelligents, les androïdes et les autres formes d’intelligence artificielle, de plus en plus sophistiquées semblent être sur le point de déclencher une nouvelle révolution industrielle » a ainsi adopté, le 16 février 2017, une résolution demandant à la Commission européenne de proposer des règles de droit civil encadrant la robotique, notamment en matière de responsabilité, de transparence, d’obligation de rendre des comptes et reflétant les valeurs humanistes3. Le 8 septembre 2017, le gouvernement lançait officiellement sa stratégie « intelligence artificielle ». Par ailleurs, des travaux plus sectoriels, font clairement état du potentiel de l’intelligence artificielle. Ainsi, le rapport de la mission d’information sur le redressement de la justice, présidée par Philippe Bas, intitulé « Cinq ans pour sauver la justice », préconise-t-il l’emploi de l’intelligence artificielle non seulement pour moderniser le fonctionnement de l’institution judiciaire mais également pour désengorger le contentieux en matière civile, en favorisant la prévention des contentieux. On le voit, le droit ne saurait fermer les yeux devant le phénomène de l’intelligence artificielle, aujourd’hui en pleine expansion. Aussi, paraît-il opportun de s’interroger sur les conséquences juridiques du développement exponentiel de l’intelligence artificielle.

Cette problématique appelle deux types de réponses, dictés par le constat de l’instauration, par l’intelligence artificielle de dynamiques distinctes, selon qu’on l’envisage comme objet du droit, ou que l’on envisage le droit comme objet de l’intelligence artificielle.

En effet, l’intelligence artificielle, phénomène d’apparition récente, appelle d’abord à s’interroger sur la capacité de notre encadrement juridique à faire face aux situations nouvelles qu’elle engendre, en termes de responsabilité, de titularité des droits. Cette perspective invite à s’interroger sur l’opportunité de la création d’une personnalité juridique du troisième type, appelée des vœux de certains spécialistes du droit de la robotique (I).

Ensuite, il est intéressant de constater que le développement de l’intelligence artificielle a également des conséquences sur le droit lui-même, qui n’est plus seulement envisagée comme un outil organisant la vie en société, mais comme une matière première. Aussi, d’objet d’étude des seuls universitaires et parlementaires, le droit devient un produit que l’intelligence artificielle permet d’améliorer, d’augmenter et dont s’emparent des entrepreneurs avides d’un marché resté jusqu’à récemment inexploré. Aussi, l’appréhension du droit comme objet de l’intelligence artificielle fait apparaître l’opportunité de l’avènement d’un droit augmenté, ou pourrait-on dire, par analogie avec le transhumanisme, d’un « transjuridisme » (II).

I – L’intelligence artificielle objet du droit ou l’inopportunité d’une personne du troisième type

Envisagé comme l’objet du droit, le développement de l’intelligence artificielle soulève des questions incontestables. En particulier, se dessinent des problèmes relatifs à la responsabilité des dommages causés par les robots à des tiers, comme pourrait le faire une voiture autonome par exemple, ou encore à la titularité des productions réalisées par un robot4. Qui doit en être considéré comme responsable, le programmateur, l’utilisateur du robot, son producteur ? Pour certains auteurs, ces questions pourraient se résoudre grâce à la reconnaissance d’une personnalité d’un troisième type, aux robots les plus intelligents. Innovante et digne des plus belles œuvres de science-fiction, l’idée d’une personnalité robot a retenu l’attention du Parlement européen, lequel, sans préconiser son adoption, demande à la Commission européenne, de l’envisager au titre des solutions juridiques probables et d’en évaluer les conséquences possibles5. La question est donc posée. À l’examen, l’idée d’une personnalité robot apparaît non seulement injustifiée (A) mais également inutile (B).

A – Une personnalité-robot injustifiée

Pour certains auteurs, le développement de l’intelligence artificielle justifierait la création d’une troisième catégorie de personnes. Selon Alain Bensoussan6, « l’intelligence artificielle et la liberté décisionnelle qu’elle implique pose la question de la création de nouveaux droits tangentiels », dont seraient titulaires les robots, à la faveur d’une personnalité juridique particulière : la personnalité robot. On le voit, selon cet auteur, le fondement même de la reconnaissance d’une personnalité robot est l’autonomie, la liberté de décision dont ces robots peuvent faire preuve. Le degré de cette liberté de décision justifierait la reconnaissance d’une gradation de droit en fonction des capacités effectives du robot. Ainsi, moins le robot disposerait d’autonomie, plus il devrait être traité comme une chose. À l’inverse, la forte autonomie du robot justifierait qu’on lui applique « des règles proches de celles des humains et imprégnées de références éthiques et culturelles ». Les partisans de l’attribution d’une personnalité juridique aux robots considèrent comme possible cette création, tout comme l’a été la création de la personnalité des personnes morales, laquelle démontre la liberté du législateur de créer une nouvelle catégorie de personnes juridiques. Comme la personne morale, la personne robot disposerait d’un numéro d’identification et devrait figurer sur un État civil robot qui permettrait de faire le lien entre le robot et son responsable. Elle devrait par ailleurs disposer d’un capital destiné à indemniser les tiers des dommages qu’elle aurait provoqués et dont le montant serait déterminé en fonction des risques que le robot est susceptible de faire courir aux tiers, et assorti de garanties bancaires si son montant venait à être insuffisant. En contrepartie, devrait être établie une charte de droit du robot au respect et à la dignité, limitée aux données à caractère personnel conservées7. Pour stimulante que soit cette approche, elle repose sur un fondement, l’autonomie décisionnelle, inefficient (1), et pourrait produire des effets délétères (2).

1 – Un fondement actuellement inefficient

Le premier argument déployé en faveur de la reconnaissance de la personnalité des robots est la reconnaissance, par le droit, d’une personnalité aux personnes morales démontrant la capacité du législateur à créer de nouvelles catégories de personnes. On ne saurait le nier. En revanche, une telle attribution de personnalité répond notamment à la prise de conscience que la création d’une association ou encore d’une société, fait naître une entité dont l’intérêt dépasse la somme des intérêts de ses membres. En d’autres termes, une fois la personne morale créée, naît un intérêt de la personne morale, distinct de celui de ceux qui l’ont constituée. Cela se manifeste notamment quant aux conditions de mise en œuvre de la responsabilité pénale de la personne morale. En effet, il ressort de l’article 121-2 du Code pénal que les personnes morales ne sont responsables que des infractions commises, pour leur compte, par leurs organes ou représentants. Or une telle distinction entre les intérêts du robot et ceux de son propriétaire ou de son utilisateur n’existe pas, a priori. Eu égard à la nature fonctionnelle du robot et à l’utilitarisme qui le caractérise, il n’agit pas par définition, pour son compte mais bien pour autrui. Il n’existe donc pas d’intérêt distinct entre le robot et cet autrui. La reconnaissance d’une personnalité à un robot intelligent paraît donc ne pas correspondre à celle de la personne morale.

Par ailleurs, l’attribution d’une personnalité, fusse-t-elle « singulière » aux robots, est une source d’incohérences. En effet, le fondement affirmé de cette personnalité se trouverait dans l’autonomie procurée par l’intelligence artificielle. Or cette autonomie ne suffit pas à justifier cette personnification. En effet, bon nombre d’entités sont autonomes sans pour autant se voir reconnaître d’aptitude à avoir des droits. C’est le cas des animaux, lesquels, comme êtres animés, jouissent d’une naturelle autonomie. L’intelligence démontrée des dauphins, grands singes, poulpes et leur aptitude à apprendre et à évoluer justifie-t-elle pour autant qu’ils puissent avoir un patrimoine8 ?

À l’inverse, l’absence d’autonomie décisionnelle de certaines personnes ne leur fait pas perdre pour autant la qualité de personne et c’est peut-être précisément dans ce cas que la protection attachée à la personne est la plus nécessaire. Une personne hors d’état d’exprimer sa volonté puisqu’elle est inconsciente cesse-t-elle pour autant d’être considérée comme une personne ? On pourrait répondre que l’autonomie de la personne physique n’a pas à être recherchée puisque la qualité de personne est inhérente à la condition humaine et qu’elle n’est pas, contrairement à la personnalité des personnes morales et des personnes robots, attribuée par le droit mais seulement reconnue par ce dernier. Une personne physique pourrait donc être une personne juridique qu’elle soit ou non autonome.

Un tel raisonnement méconnaîtrait l’histoire de l’esclavage et la mort civile qui ont certes disparu mais qui ont autrefois existé. Aussi, la personne humaine n’est une personne juridique qu’à la faveur d’un droit qui la reconnaît9.

2 – Des effets potentiellement délétères

L’attribution de la personnalité juridique aux robots pourrait obscurcir davantage la distinction, pourtant essentielle, entre les personnes et les choses… Ainsi, la catégorie des personnes serait composée, en plus des personnes humaines, des personnes physiques, des personnes non humaines, que seraient les personnes morales et des personnes robots. Font alors leur apparition dans cette catégorie et se voient donc attribuer la capacité à avoir des droits des entités dépourvues de vie mais il est vrai animées, ayant ou non une existence physique, créées de toute pièce par l’intelligence humaine. À l’inverse, continuent à se voir dénier la qualité de personne juridique, des entités pourtant humaines, vivantes, les embryons humains ou encore des entités humaines sans vies, regardées, par suite au mieux comme des objets juridiques non identifiées, au pire comme des choses. On le voit, la création d’une personnalité du troisième type risque de brouiller un peu plus la distinction des personnes et des choses. Cet obscurcissement est non seulement assumé mais également revendiqué par Alain Bensoussan pour lequel « dans les dix prochaines années, les humains et les robots devraient évoluer de manière tangentielle : les robots s’humaniseraient et les humains se robotiseraient »10.

On pourrait répondre que le droit n’est pas à une subtilité ou complexité près. C’est vrai. Cependant, une telle porosité entre la catégorie des choses et des personnes semble pouvoir être néfaste aux personnes physiques elles-mêmes, pour lesquelles on peut déjà constater une sorte de réification notamment face à des pratiques comme celles des mères porteuses où le corps d’une personne devient le moyen pour un couple d’obtenir un enfant.

Par ailleurs, la revendication d’une personnalité robot à laquelle serait attaché le droit au respect et à la dignité, pourrait faire oublier que le robot a priori, et quelles que soient ses finalités, est conçu par et pour l’homme. À cet égard, l’idée même d’une dignité des robots semble, à elle seule, être une source de confusion. En effet, ce principe de dignité est difficilement définissable. S’agissant de la personne humaine, cet axiome11, suppose que l’on traite toute personne humaine comme un être humain, ni comme un animal ni comme une chose… Il interdit « que la personne ne soit jamais utilisée simplement comme un moyen, mais toujours en même temps comme une fin. La personne humaine doit être reconnue comme une personne juridique, dotée de volonté, et non pas instrumentalisée par autrui et ainsi avilie. Le principe de dignité interdit alors de réifier l’être humain en l’utilisant comme une chose, c’est-à-dire en l’aliénant à une autre fin que lui-même »12. À l’évidence, on ne saurait, sans antinomie, appliquer cette conception de la dignité aux robots, lesquels sont par définition des moyens de parvenir à une fin, par nature même instrumentalisés. Tout au plus devra-t-on éviter de la traiter de manière indigne, comme on le fait pour les animaux, mais nul n’est besoin ici de recourir à la notion de personne singulière.

B – Une personnalité robot inutile

La création d’une troisième catégorie de personnes, la personnalité robot, nous paraît inutile tout autant pour protéger les robots que pour protéger les humains.

1 – Une personnalité inutile pour protéger les robots

Le souhait de l’attribution d’une personnalité aux robots semble plus répondre à l’expression d’une empathie13 déplacée, qu’à une nécessité juridique en tant que telle.

En premier lieu, la reconnaissance de droits aux robots, qu’implique l’attribution de la personnalité juridique, nous semble procéder d’une confusion, certes commune, mais préjudiciable, entre protection par le droit et personnalité. En effet, l’un des objectifs de la reconnaissance d’une personnalité singulière aux robots serait de les protéger. Or cet objectif n’implique pas nécessairement la reconnaissance de la personnalité. Des biens, des choses, peuvent faire l’objet d’une protection. Le cas des animaux, qui fait l’objet du même type de revendications14, est ici assez éclairant. En effet, bien qu’on leur ait reconnu récemment la qualité d’êtres vivants doués de sensibilité15, ils n’en restent pas moins classés dans la catégorie des biens, meubles ou immeubles lorsqu’ils sont attachés à l’exploitation d’un fonds. Ils n’en font pas moins l’objet d’une protection particulière par le droit. Aussi, l’article 515-14 du Code civil prend-il soin de préciser que « sous réserve des lois qui les protègent, les animaux sont soumis au régime des biens ». À cet égard, les animaux ne sauraient faire l’objet de sévices graves et d’actes de cruauté. Sont également réglementées leurs conditions de transport et d’abatage, ainsi que de manière catégorielle, les conditions d’élevage des poules et cochons. De même, l’environnement que l’on ne saurait considérer comme une personne, fait lui aussi l’objet de dispositions protectrices particulières constituant le droit de l’environnement. On le voit, la protection d’une entité ne passe pas nécessairement par la reconnaissance de sa personnalité.

2 – Une personnalité inutile pour protéger les humains

L’attribution d’une personnalité juridique aux robots paraît également superflue pour protéger les personnes physiques. S’il est vrai qu’il vaut mieux assurer l’identification et la traçabilité des robots et de leurs actes pour déterminer qui en est le responsable, il n’est pas pour autant nécessaire pour assurer cette identification d’en passer par l’attribution d’une personnalité. Nombreux sont les biens dont la traçabilité et l’identification est assurée par un numéro d’immatriculation : voiture, chien ou chat, avion, etc.

Par ailleurs, la question de la personnalité se poserait pour permettre aux robots les plus autonomes de répondre de leurs actes. La situation serait relativement simple pour les robots à intelligence artificielle faible16 et pourrait, sous réserve de certaines adaptations, être réglée par la responsabilité du fait des produits défectueux ou la responsabilité du fait des choses. En d’autres termes, le producteur du robot sera responsable si le dommage causé est consécutif à une défaillance de la machine, laquelle ne serait pas conforme à l’exigence de sécurité à laquelle on peut légitimement s’attendre au moment de la mise en circulation du produit, compte tenu des circonstances notamment de présentation du produit et de l’usage qui peut en être raisonnablement attendu17. Si le robot n’est pas défectueux, la responsabilité du fait des choses, prévue à l’article 1242 du Code civil rendant responsable l’utilisateur de la chose, qu’il en soit ou non propriétaire, dès lors qu’il en est le gardien. Concédons néanmoins que cela nécessiterait quelques adaptations ou clarifications, notamment quant à la possibilité pour un produit immatériel tel qu’un logiciel d’être considéré comme un produit. On pourrait insérer une disposition spécifique dans le dispositif comme c’est le cas pour l’électricité. De la même manière, il faudrait étendre la notion de garde, qui est le pouvoir de direction et de contrôle sur la chose, à une garde qui ne serait plus seulement matérielle mais intellectuelle.

La question est, il est vrai, plus épineuse pour les robots plus autonomes, sans pour autant que la personnalité robot ne s’impose. La difficulté provient de la possibilité pour ces robots, grâce à leur capacité d’apprentissage, de prendre seuls des décisions, lesquelles peuvent, comme toute décision, avoir des conséquences dommageables. Toutefois, la situation n’est ici pas très différente de celle des dommages causés par les animaux dont le propriétaire est responsable, si l’animal échappe à son contrôle. Par ailleurs, la reconnaissance d’une personnalité juridique aux robots les plus intelligents, ne résoudrait pas vraiment la difficulté. On peut en premier lieu évoquer un argument purement psychologique : lorsqu’une personne est victime d’un dommage important, elle entend non seulement être dédommagée mais également que le responsable réponde de ses actes. La reconnaissance de la responsabilité de l’auteur est importante au travail de reconstruction de la personne et partant, à la paix sociale. Or un robot n’est pas quelqu’un. Il est créé, fabriqué, alimenté, par quelqu’un. Il est douteux que les victimes de dommages se satisfassent de l’affirmation de la responsabilité du robot même si celui-ci les dédommage à l’aide du capital d’indemnisation dont il est titulaire. Par ailleurs, il y aura toujours quelqu’un pour alimenter ce capital dès lors que c’est sur ce quelqu’un que reposera véritablement la responsabilité. Enfin, il est à craindre qu’une responsabilité propre aux robots les plus sophistiqués soit contre-productive, en faisant écran à celle des fabricants ou utilisateurs.

Dès lors, l’attribution d’une personnalité aux robots les plus sophistiqués, les plus autonomes, paraît superflue voire même dangereuse. Il nous apparaît donc qu’il faut raison garder et revenir à une certaine orthodoxie juridique en ne créant pas un troisième type de personnalité qui s’avère, au regard de son inutilité, inopportune.

À l’inverse, faire du droit l’objet de l’intelligence artificielle semble pouvoir être source de bienfaits.

II – Le droit objet de l’intelligence artificielle : l’opportunité d’un transjuridisme

Depuis quelques années maintenant, le monde juridique est animé par un concept encore absent et regardé, jusqu’à peu, comme digne des seuls films de science-fiction : le « transhumanisme », courant de pensée prônant l’utilisation des sciences et techniques pour améliorer les capacités physiques et intellectuelles de l’être humain. Nombreux sont les colloques et manifestations scientifiques ainsi dédiés à l’homme augmenté. Par analogie, lorsque l’on s’intéresse à l’intelligence artificielle appliquée au droit, on peut déceler une formidable occasion d’un droit augmenté et de ce que l’on pourrait appeler un « transjuridisme ». En effet, à condition d’éviter quelques écueils qui pourraient les affaiblir (B), l’intelligence artificielle met à la disposition de la justice, et plus largement du droit, des outils permettant de l’améliorer, de le rendre plus performant (A).

A – L’intelligence artificielle au service d’un droit augmenté ou transjuridisme

L’intelligence artificielle fournit au droit de nouveaux outils, ceux au service d’une justice dite « prédictive » et ceux rendus possibles par le développement de la robotisation.

1 – L’augmentation du droit par le recours à la justice prédictive

L’intelligence artificielle appliquée à la justice – Encore inconnue il y a peu, la notion de justice prédictive connaît aujourd’hui un attrait considérable, comme en témoigne le nombre de publications18 et de manifestations scientifiques récentes ou à venir19. Elle peut, dans un premier temps, être définie comme l’application, à la justice, des moyens de l’intelligence artificielle pour « prédire » la solution d’un litige si bien qu’un auteur y a reconnu une version moderne de la boule de cristal20. Elle permet d’obtenir les probabilités du montant d’une indemnisation ou d’une prestation à caractère monétaire ou encore d’obtenir des statistiques sur les chances de succès d’une procédure, selon la juridiction saisie, les fondements juridiques des demandes formulées, etc. Elle s’est étendue à la faveur du développement de la capacité d’apprentissage automatique des machines, et de l’open data. On peut trouver différentes manifestations de cette justice prédictive en France, bien que leur nombre soit très inférieur à celui constaté aux États-Unis. À titre d’exemple, le site « predictice.com » se présente comme un moyen d’optimisation de la stratégie mis au service de l’avocat.

Cette technologie met en œuvre une exploitation massive des données judiciaires par des algorithmes de l’intelligence artificielle. Elle repose dans un premier temps sur des données statistiques, et dans sa configuration la plus avancée, sur la modélisation de ces statistiques par application de la méthode quantitative, pour faire émerger des prédictions probabilistes. Elle consiste, à déterminer les probabilités de chaque décision possible. Concrètement, des juristes spécialisés dans un contentieux sont invités à définir les critères, les caractéristiques de chaque décision, et les décisions possibles. Par la suite, ces variables sont appliquées à une base de données de jurisprudence du contentieux concerné. Les données ainsi extraites servent à entraîner une machine douée d’une capacité d’apprentissage automatique et capable de rendre des décisions non distinguables, à l’aveugle de celles rendues par de véritables juges (test de Turing). Ce faisant, la machine sera capable de faire apparaître les critères les plus fortement corrélés à une décision. La méthode aboutit à associer à chaque décision possible une probabilité de réalisation. Ce résultat est ensuite représenté sous forme d’histogramme21.

L’intelligence artificielle au service d’une meilleure justice – L’analyse quantitative des décisions de justice et l’anticipation des décisions possibles pourrait permettre de satisfaire à l’impératif de célérité de la justice souvent malmené par des contraintes budgétaires ne permettant pas le recrutement suffisant de magistrats. En effet, guidé par les analyses statistiques dégagées qui font émerger les tendances quant aux chances de succès de telle ou telle prétention, ou encore les montants des indemnisations versées dans des cas similaires, l’avocat, doté d’éléments supplémentaires pour satisfaire à son obligation d’information, pourrait trouver les arguments pour orienter son client vers un mode amiable de règlement des différends, allégeant ainsi le contentieux et partant, participant au désencombrement de notre justice22. Soulignons à cet égard que la justice prédictive a été présentée, dans le rapport rendu par la mission d’information sur le redressement de la justice présidée par le sénateur Philippe Bas, comme un moyen prometteur pour prévenir, en matière civile, le contentieux, et partant, pour désengorger les tribunaux. Le rapport prend cependant soin de préciser que le développement de cette technologie, développement pour le moment spontané, devait se voir appliquer un encadrement et une régulation étatique.

Dans le même sens, la justice prédictive pourrait contribuer à renforcer la sécurité juridique en favorisant l’harmonisation des décisions de jurisprudence et, en conséquence, en les rendant plus prévisibles. En effet, les outils de justice prédictive pourraient permettre aux magistrats d’avoir une plus grande visibilité sur les décisions rendues par leurs pairs et faire émerger des tendances, en fonction des critères étudiés, jusque-là invisibles « à l’œil nu ». Ainsi, Antoine Garapon affirme-t-il que « les legaltechs rendent transparent un niveau de réalité qui était jusqu’à présent inaccessible. C’est non seulement toute la production qui devient transparente mais aussi le détail, juge par juge, argument par argument, partie par partie »23.

2 – L’augmentation du droit par la robotisation

Les legaltechs font également émerger, en marge de la justice prédictive, des outils à destination des praticiens du droit, qu’ils soient avocats ou juristes, en « robotisant » certains des aspects de ces professions. Les manifestations les plus spectaculaires sont probablement les fameux robots-avocats, mais à côté de ces robots matérialisés, sont également développés des logiciels qui, bien que dépourvus d’enveloppe matérielle, sont capables de délivrer des prestations juridiques.

L’apparition de robots-avocats – Ainsi, en 2016, le robot-avocat Ross, développé par IBM à partir de son ordinateur cognitif Watson, fut le premier robot à intégrer un cabinet d’avocats américain. Ce robot est capable de parcourir plusieurs centaines de millions de pages en quelques secondes seulement et à partir d’une question posée en langage courant de réaliser une recherche juridique et d’émettre des hypothèses. Il n’est que le premier représentant d’une multitude d’autres robots à travers le monde. Ainsi, certains cabinets français en testent actuellement quelques-uns. Certains d’entre eux sont conçus pour intervenir dans des secteurs très spécifiques. Ainsi, un jeune Français surdoué de l’informatique est à l’origine du robot Peter, robot spécialisé dans la création d’entreprises. À côté de ces robots, humanisés par un prénom, sont également développés des logiciels tout aussi performants sans avoir d’enveloppe matérielle.

Le développement de logiciels capables de fournir des documents juridiques24. Certains sites proposent désormais de préparer en ligne un dossier ou encore la rédaction de certains actes. Les legaltech comprennent ainsi des logiciels capables de rédiger un contrat personnalisé. Ces logiciels requièrent une parfaite maîtrise de l’encadrement juridique et peuvent, à partir d’un questionnement évoluant en fonction des réponses apportées par l’utilisateur, produire un contrat valide et adapté à la situation. L’intelligence artificielle permet également de suivre l’exécution du contrat à travers le développement de ce qui est appelé improprement smart contrats. Ces derniers ne sont en réalité pas des contrats mais une technologie permettant, grâce à la sécurité apportée par la blockchain25, d’exécuter de manière automatisée certaines étapes du contrat. Ainsi, le logiciel pourra traiter de manière automatique le versement d’une indemnité en cas de retard constaté de l’exécution d’une prestation ou encore donner effet à l’expiration d’un délai de rétractation en versant les fonds prêtés. Cette technologie est permise par le développement de la blockchain, qui permet de stocker et d’échanger des informations de manière sécurisée26.

On le voit, si le droit a longtemps fait de la résistance à l’invasion des nouvelles technologies, il fait actuellement face à une véritable déferlante. On pourrait y voir une menace pour certaines professions du droit27. Toutefois, ces technologies sont encore aujourd’hui très largement dépendantes de la programmation initiale qui en est faite et de la mise à jour des données. Par ailleurs, les robots, matérialisés ou non, ne sont pour le moment pas capables de produire un véritable raisonnement cognitif et de faire preuve de véritable empathie, qui restent donc l’apanage de l’homme. Elles ne semblent pas devoir concurrencer les professionnels du droit. C’est en ce sens qu’il semble falloir comprendre deux décisions rendues récemment à propos du site demanderjustice.com, lequel propose de régler ses litiges en quelques clics sans frais d’avocats. Le juge des référés du tribunal de grande instance de Paris et la Cour de cassation ont en effet considéré, pour refuser respectivement une demande de fermeture du site formulée et l’existence du délit d’exercice illégal de la profession d’avocat, que les prestations proposées, à savoir l’émission d’une mise en demeure et la préparation du dossier pour saisir la justice, ne constituaient pas les actes d’assistance et de représentation réservés aux avocats28, étant « dépourvues de valeur juridique ajoutée ainsi que de toute dimension stratégique, outre l’absence de fourniture de conseils personnalisés et le défaut d’une analyse quant à l’applicabilité au cas d’espèce des normes et informations juridiques mises à disposition »29.

Aussi nous semble-t-il possible, sans aller jusqu’à parler d’eldorado30, d’y reconnaître une véritable opportunité : opportunité pour les professions juridiques de se délester des tâches purement répétitives en les confiant aux machines31 ; opportunité également de bénéficier, rapidement, d’une recherche documentaire possiblement exhaustive et pertinente, opportunité en conséquence d’optimiser le conseil fourni en dégageant le temps nécessaire à l’élaboration d’une stratégie en ayant une connaissance accrue des risques et des avantages qu’elle comporte et en consacrant davantage de temps au client, à l’humain32. Le rapport Cadiet, portant sur l’open data des décisions de justice, considère dès lors que « les possibilités offertes par l’intelligence artificielle contribueront à faire évoluer l’activité des professionnels du droit vers davantage de complémentarité entre le praticien et la machine »33.

L’intelligence artificielle semble donc pouvoir constituer une véritable opportunité pour les professions juridiques, à condition toutefois d’éviter certains écueils.

B – L’intelligence artificielle et les risques d’un droit diminué

Si l’avènement d’un droit augmenté semble constituer une véritable opportunité pour les professions juridiques et pour le droit, cette opportunité ne doit pas faire oublier les risques, incontestables, que cette nouvelle technologie comporte.

Les risques de mutation de notre système juridique – Parmi les risques attachés à l’application de l’intelligence artificielle au droit, le plus important est probablement la complète mutation de notre système juridique et de « la manière de pratiquer et penser le droit »34. En effet, en appliquant à la matière et en le détournant, le fameux principe d’incertitude d’Heisenberg, on peut considérer que la mesure même d’une donnée va venir influencer cette donnée. Aussi, si l’intelligence artificielle permet de mesurer avec plus de précision, les caractères de la jurisprudence d’une juridiction, d’un juge, d’un contentieux, cette mesure ne risque-t-elle pas de venir modifier cette jurisprudence ? Ainsi, si les outils mis à sa disposition permettent à un juge de comparer sa pratique en matière d’indemnisation ou de prestation compensatoire, cette comparaison, sa pratique, va évoluer et tendre vers une harmonisation voire même une uniformisation des pratiques. Si l’algorithme pousse alors à l’adoption d’un comportement, il comporte un effet normatif35. Ces effets secondaires de l’intelligence artificielle risquent, par suite, non seulement d’appauvrir la jurisprudence mais également de faire totalement changer la nature de notre système dans lequel la jurisprudence deviendrait une source directe de droit, nous rapprochant des systèmes de Common Law fonctionnant à partir des précédents. Nous rejoignons ici le professeur Didier Guével pour lequel la transposition dans notre droit de logiciels d’origine américaine risquerait de nous conduire à « survaloriser en droit privé, la jurisprudence. L’esprit de la Common Law finirait ainsi par s’immiscer par le biais de la robotisation »36. De la même manière, l’automatisation et la robotisation des contrats pourraient appauvrir l’esprit créatif des rédacteurs de contrats tant le logiciel reste limité aux hypothèses envisagées par les programmateurs. Ces outils, pourtant d’avenir, ont néanmoins pour biais d’être programmés en fonction du passé. Le risque in fine serait celui d’une justice et d’un droit statiques. L’on parviendrait alors à une situation paradoxale où les outils futuristes contribueraient à un droit passéiste.

Les risques d’une justice « jugée », en perte d’autorité Autre risque, selon nous, inhérent à l’application de l’intelligence artificielle au droit : celui de la perte d’autorité de la justice. En effet, nous l’avons vu, l’intelligence artificielle rendra plus transparente la justice ce qui constitue, en soi, un progrès. Il est cependant possible que cet effet, bénéfique, soit accompagné d’un effet secondaire délétère : en faisant apparaître des critères jusque-là immergés, l’intelligence artificielle donne également des outils de comparaison entre les décisions de justice. Employés à bon escient par des professionnels du droit conscients de l’irréductibilité de l’aléa judiciaire, ces outils pourront s’avérer très utiles à la préparation des différentes stratégies, mais employés comme points de comparaison bruts, non accompagnés d’une interprétation éclairée, ils pourraient s’avérer redoutables pour l’autorité de la justice, cette dernière pouvant à son tour être « jugée » comme injuste par l’opinion. Or même si la justice rendue est une justice satisfaisant aux exigences du procès équitable, l’apparence d’une bonne justice est essentielle à l’acceptation des décisions de justice par les justiciables. L’utilisation des outils de justice prédictives devront donc être entourés de toutes les précautions nécessaires à leur compréhension par les justiciables.

Notes de bas de pages

  • 1.
    Droit d’auteur 2010/2011, Dalloz Action, n° 103.27.
  • 2.
    En ce sens v. Loiseau G. et Martinon A., « Le machinisme intelligent », Cah. soc. févr. 2017, n° 120g1, p. 55.
  • 3.
    Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2083 (INL)).
  • 4.
    Larrieu J., « Robot et propriété intellectuelle », Dalloz IP/IT 2016, p. 291.
  • 5.
    Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2083 (INL)).
  • 6.
    Benssoussan A., Droit des robots, 2015, Larcier, spéc. p. 41 et s. V. égal., du même auteur, « La personne robot », D. 2017, p. 2044.
  • 7.
    Benssoussan A., Droit des robots, op. cit., n° 222.
  • 8.
    En ce sens, v. Loiseau G., « Des robots et des hommes », D. 2015, p. 2369.
  • 9.
    En ce sens, v. Frison Roche M.-A., « La disparition de jure entre les personnes et les choses : gain fabuleux, gain catastrophique », D. 2017, chron., p. 2386.
  • 10.
    Benssoussan A., Droit des robots, op. cit., n° 217.
  • 11.
    Fabre-Magnan M., « La dignité en Droit : un axiome », Revue interdisciplinaire d’études juridiques, vol. 58, n° 1, 2007, p. 1 et s.
  • 12.
    Ibid., n° 66.
  • 13.
    En ce sens, v. Daups T., « Le robot, bien ou personne ? Un enjeu de civilisation », LPA 11 mai 2017, n° 126a5, p. 7. V. égal. en ce sens, Benssoussan A., Droit des robots, op. cit., p. 281.
  • 14.
    Marguénaud J.-P., « Actualités et actualisation des propositions de René Demogue sur la personnalité juridique des animaux », Revue juridique de l’environnement, vol. 40, n° 1, 2015, p. 73-83.
  • 15.
    C. civ., art. 515-14 issu de L. n° 2015-177, 16 févr. 2015.
  • 16.
    Sur ce point, voir la distinction faite par Géorgie Courtois entre robot sous contrôle et robot autonome : « Robots intelligents et responsabilité : quels régimes, quelles perspectives ? », Dalloz IP/IT 2016, p. 287.
  • 17.
    C. civ., art. 1245.
  • 18.
    V. not. Dupré J. et Levy Vehel J., « L’intelligence artificielle au service de la valorisation du patrimoine jurisprudentiel », Dalloz IP/IT 2017, p. 500 ; Lasserre M.-C., « L’intelligence artificielle au service du droit : la justice préductive, la justice du futur ? », LPA 30 juin 2017, n° 127v0, p. 6 ; Dondero B., « Justice prédictive : la fin de l’aléa judiciaire ? », D. 2017, p. 532 ; Garapon A., « Les enjeux de la justice prédictive », JCP 2017, 31 ; Iweins D., « La justice prédictive, nouvel allié des professionnels du droit ? », Gaz. Pal. 23 janv. 2017, n° 282v9, p. 5.
  • 19.
    Colloque sur la justice prédictive sous la direction de Sylvie Lebreton Derrien, Le Mans-université, site de Laval, 5 avr. 2018.
  • 20.
    Rouvière F., « La justice prédictive : version moderne de la boule de cristal », RTD civ. 2017, p. 527 et s.
  • 21.
    Pour une description beaucoup plus détaillée de la méthode quantitative : Dupré J. et Levy Vehel J., « L’intelligence artificielle au service de la valorisation du patrimoine jurisprudentiel », art. préc.
  • 22.
    En ce sens, v. Iweins D., « La justice prédictive, nouvel allié des professionnels du droit ? », Gaz. Pal. 23 janv. 2017, n° 282v9, p. 5.
  • 23.
    Garapon A., « Les enjeux de la justice prédictive », art. préc.
  • 24.
    Sur ce point v. Chassagnard-Pinet S., « Les usages des algorithmes en droit : prédire ou dire le droit ? », Dalloz IP/IT 2017, p. 495.
  • 25.
    Mekki M., « Les mystères de la blockchain », D. 2017, p. 2160.
  • 26.
    Ibid.
  • 27.
    D’où l’interrogation posée par Iweins D., « Les robots sont-ils nos ennemis ? », Gaz. Pal. 28 juin 2016, n° 269v7, p. 9.
  • 28.
    Cass. crim., 21 mars 2017, n° 16-82437.
  • 29.
    TGI Paris, réf., 11 janv. 2017, n°1504207 : Comm. com. électr. 2017, comm. 22, note Loiseau G.
  • 30.
    Ginestié P., « La robotisation des contrats par les juristes eux-mêmes – sera leur prochain eldorado », Dalloz IP/IT 2017, p. 527.
  • 31.
    En ce sens, v. not. Cassuto T., « La justice à l’épreuve de sa prédictibilité », AJ pénal 2017, p. 334.
  • 32.
    Avena-Robardet V., « Le praticien au cœur du numérique », AJ fam. 2017, p. 503.
  • 33.
    Rapp., L’open data des décisions de justice, présidé par Loïc Cadiet, remis au garde des Sceaux, 29 nov. 2017.
  • 34.
    Chassagnard-Pinet S., « Les usages des algorithmes en droit : prédire ou dire le droit ? », art. préc.
  • 35.
    En ce sens, v. Barraud B., « Le coup de data permanent : la loi des algorithmes », RDLF 2017, chron. 35 ; Chantepie G., « Le droit en algorithmes ou la fin de la norme délibérée ? », Dalloz IP/IT 2017, p. 522.
  • 36.
    Guével D., « La technologie : un danger pour le droit continental ? », D. 2017, p. 2145.