Responsabilité et intelligence artificielle
Le progrès vient généralement des sciences dures. Le droit, ensuite, se charge d’en encadrer la pratique. Aujourd’hui, l’intelligence artificielle est apparue dans notre société, mais le juriste doit s’interroger sur son régime de responsabilité dès qu’un dommage en découle.
L’intelligence artificielle peut être définie comme « la science qui consiste à faire faire aux machines ce que l’Homme ferait moyennant une certaine intelligence »1. Les algorithmes, qui la constituent, sont un « ensemble de règles qui définit précisément une séquence d’opérations de sorte que chaque règle soit effective et définie et que la séquence se termine dans un temps fini »2. Les algorithmes d’apprentissage, dits machine learning ou apprentissage automatique, regroupent des méthodes qui permettent de trouver des relations pertinentes et compréhensibles par l’Homme au sein d’un jeu de données qui décrit un ensemble d’observations. Il s’agit, dans l’analyse sérielle, des équations, des règles, des regroupements (clusters), des structures de données (graphes)3. Cette méthode permet la création de processus décisionnel ; le processus de décision est construit automatiquement, à partir des données et non plus à partir des règles créées explicitement par l’Homme4. L’entrée des algorithmes dans le monde du droit est révélatrice d’une révolution graphique. Ainsi que l’a souligné Antoine Garapon, le numérique, en tant que nouvelle façon de décrire le monde, permet d’intégrer toutes les formes de langage (parole, son, écrit, etc.), sous un format mathématique. Dans cette nouvelle vision du monde, les individus finissent par assimiler ce nouveau langage à la réalité5. Cette révolution engendre une soumission à la gouvernance des nombres, telle qu’Alain Supiot l’a récemment pensée6.
Albert de Geouffre de La Pradelle avait souligné que ce ne sont pas les philosophes avec leurs théories, ni les juristes avec leurs formules, mais les ingénieurs avec leurs inventions qui font le droit et surtout le progrès du droit7. Les juristes, cependant, ne légifèrent la technique que le plus souvent a posteriori de son apparition, d’où la nécessité d’y réfléchir en amont8.
Mais si l’intelligence artificielle est porteuse des espoirs de progrès les plus fous, il ne faut pas oublier qu’elle peut être source de dommages dans la pratique et qu’à ce titre il faut lui attribuer un régime de responsabilité. L’intelligence artificielle, néanmoins, présente des caractéristiques jusqu’ici peu rencontrées dans la société et nécessite véritablement une réflexion sur l’adaptabilité à son endroit des régimes de responsabilité connus en droit positif. Ugo Pagallo estime ainsi qu’il est nécessaire de se préparer à accepter une nouvelle catégorie d’actions non purement humaines, non simplement animales qui, pourtant, produisent de multiples effets légaux pertinents9.
L’intelligence artificielle peut être définie comme un objet immatériel renfermant une autonomie potentielle. Cette autonomie repose sur une capacité à agir. Il faut, pour le comprendre, revenir sur le concept d’agency qui, en philosophie, désigne la capacité d’une entité à agir sur le monde10. Pour comprendre son autonomie, il faut se détacher de la notion d’intelligence non humaine et se concentrer sur les faits purement objectifs nés de l’action autonome des machines. Il ne faut pas, en effet, confondre autonomie et automatisme ; la machine est guidée par une succession d’automatismes qui la place dans une situation d’autonomie potentielle et non d’une réelle autonomie dans la prise de décision11. L’intelligence artificielle, reposant sur les algorithmes, est alors constituée d’un ensemble d’instructions qui découlent de son logiciel de nature immatérielle12. Lorsque l’intelligence artificielle traite les données traitées par algorithme, elle a agi de manière immatérielle. Le « fait intellectuel » de la machine est donc très difficile à saisir13.
Les régimes de responsabilité pour faute présentent de sérieuses limites pour encadrer les dommages causés par l’intelligence artificielle.
La responsabilité délictuelle, impliquant « volonté de créer le dommage tel qu’il est advenu14 », ne pourra s’appliquer que dans les cas où le programmateur de l’algorithme a volontairement choisi de rendre opérationnelle la machine à causer des dommages15.
La responsabilité contractuelle peut jouer dès lors que les dommages peuvent se rattacher à des obligations contractuelles16.
Mais, en théorie, la responsabilité du fait de l’intelligence artificielle devrait incomber à la personne qui est à l’origine des circonstances desquelles est né le dommage17. Dès lors, les responsables potentiels pourraient être :
-
le propriétaire de la machine agissant sous intelligence artificielle ;
-
le concepteur de la machine agissant sous intelligence artificielle ;
-
les titulaires de droits de propriété sur le logiciel de la machine agissant sous intelligence artificielle ;
-
le vendeur de la machine agissant sous intelligence artificielle (sous réserve que le produit dernier soit défectueux).
Notes de bas de pages
-
1.
CNIL, Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 déc. 2017, p. 16.
-
2.
Stone H., Introduction to Computer Organization and Data Structures, 1972, McGraw-Hill Book Compagny.
-
3.
Hand D., Manila H. et Smyth P., « Principles of data mining », Drug safety 2007, vol. 30, issue 7, p. 621-622.
-
4.
Langley P., « Applications of machine learning and rule induction », Communications of the ACM, vol. 38, issue 11, p. 54.
-
5.
Garapon A., La justice digitale, 2018, Paris, PUF.
-
6.
Supiot A., La gouvernance par les nombres. Cours au Collège de France 2012-2014, 2015, Fayard, p. 103.
-
7.
Colliard C.-A., « La machine et le droit privé français contemporain », in Le droit privé français au milieu du XXe siècle : études offertes à Georges Ripert, t. 1, 1950, LGDJ, p. 115.
-
8.
Willick M.-S., « L’intelligence artificielle : les approches juridiques et leurs implications », Cahiers S.T.S., 1986, cahier n° 12 « Ordre juridique et ordre technologique », CNRS.
-
9.
Pagallo U., The laws of robots. Crime, contracts, and torts, 2013, Londres, Springer, p. 124.
-
10.
Canselier S., « Les intelligences non humaines et le droit. Observations à partir de l’intelligence animale et de l’intelligence artificielle », in Archives de philosophie du droit, t. 55, Le droit et les sciences de l'esprit, 2012, Dalloz, p. 207.
-
11.
Veber P., « Robotique et responsabilité : le choix de l’illusion ou du pragmatisme ? », Décideurs n° 163, 2014, p. 20.
-
12.
Plana S., « La recherche de la nature juridique du logiciel : la quête du Graal ». RIDA n° 213, 2007, p. 87.
-
13.
Loiseau G. et Bourgeois M., « Du robot en droit à un droit des robots », JCP G 2014, 48.
-
14.
Cass. 2e civ., 30 juin 2011, n° 10-23004.
-
15.
Lecomte F., « Panorama des régimes d’(ir)responsabilité applicables à Google », RLDI 2014/105.
-
16.
Cailloux J.-P., « La responsabilité des auteurs de systèmes experts », in Droit et intelligence artificielle, une révolution de la connaissance juridique, 2000, Romillat, p. 136 ; Dupuis-Toubol F., « Responsabilité civile et internet », JCP E 1997, 640 ; ainsi que Vivant M., in Le Lamy Droit du Numérique 2013, n° 670.
-
17.
Le Tourneau P., Rép. civ. Dalloz, v° Responsabilité, 2009, n° 161.