De la machine à l’intelligence artificielle : vers un régime juridique dédié aux robots

Publié le 26/12/2018

Considérés jadis comme de simples automates, les robots sont de plus en plus perfectionnés et se rapprochent du comportement humain grâce à des processus d’apprentissage autonomes.

Nous proposons de revenir sur la conception juridique traditionnelle que nous avons de la chose robot autour de la responsabilité du fait des choses et des nouveaux enjeux juridiques comme la collecte des données personnelles.

La dernière recommandation du Parlement européen laisse toutefois entrevoir un autre régime juridique des robots, plus approfondi que les règles qui encadrent les choses et auquel nous pouvons d’ores et déjà réfléchir.

L’historien de la philosophie Dominique Janicaud constatait que « nul ne peut contester qu’en un laps de temps relativement court les sciences et les techniques ont transformé notre planète au point d’ébranler des équilibres écologiques et ethnologiques immémoriaux, au point surtout de faire douter l’homme du sens de son existence et de ses travaux, jusqu’à faire vaciller sa propre identité »1.

Depuis Heidegger, Jünger ou Ellul, il n’y a guère de controverses autour de l’impact de la technique sur notre civilisation. Pourtant, le droit s’intéresse particulièrement à la question de l’identité, à ce qui distingue la personne de la chose comme sujet de droit. À cet égard, le développement rapide et incertain des robots implique des questions juridiques et éthiques nouvelles.

Un robot est défini comme « un mécanisme programmable avec un degré d’autonomie, se déplaçant dans son environnement, pour exécuter les tâches prévues »2. L’intelligence artificielle, quant à elle, vise à imiter les mécanismes du fonctionnement du cerveau humain et sa logique décisionnelle ; elle peut être matérialisée à travers une chose corporelle ou incorporelle comme un programme informatique.

Notre étude porte sur l’analyse du régime juridique des robots dits « autonomes »3. Entendons par régime juridique l’ensemble des règles de droit applicables aux robots qualifiés juridiquement comme des choses.

Les robots constituent des choses en devenir, une forme de catégorie intermédiaire déjà appréhendée par le droit. Nous proposons dans un premier temps de revenir sur le régime juridique qui leur est applicable (I). Avec les robots autonomes dotés d’une intelligence artificielle, une réflexion prospective peut être engagée sur les règles éthiques de la robotique4 qui pourraient être retranscrites en droit (II).

I – Rétrospectives sur le régime juridique des robots

Le droit utilise des catégories juridiques qui sont des ensembles abstraits caractérisés par des éléments propres qui correspondent à un régime juridique particulier.

Les robots rejoignent la catégorie déjà abondante des éléments sui generis qui naviguent entre les personnes et les choses que le professeur Farjat nommait les centres d’intérêt objets d’une « juridicisation de compromis »5.

À ce sujet, il faut rappeler qu’il ne peut exister de droit des robots mais un droit objectif qui leur serait applicable. En l’état actuel des choses, l’arsenal juridique français est déjà satisfaisant pour régler ces questions.

Le robot est une chose soumise au droit des biens ; celui-ci est brevetable et peut faire l’objet d’un titre de propriété industrielle6. Son nom peut être déposé comme une marque7 et son apparence protégée comme un modèle industriel8.

La délivrance d’un robot répond au droit commun des contrats (obligation de délivrance conforme, garantie légale des vices cachés, garantie d’éviction…). C’est le cas également lorsqu’il est utilisé comme intermédiaire pour passer des contrats avec la notion de contrats entre absents qui suppose toutefois des procédés d’identification sécurisés9.

Plus délicate est la question de la propriété des productions intellectuelles des robots10 et leur brevetabilité11.

Le Parlement européen a suggéré de rapprocher le statut juridique du robot à une personnalité morale dite aussi électronique par le biais d’un système d’identification et d’immatriculation12.

Il nous semble que la question devrait porter davantage sur la responsabilité du fait des robots (A) et la protection des données personnelles collectées (B) et non sur les droits supposés dont pourraient bénéficier les robots eux-mêmes.

A – La responsabilité du fait des robots

Le robot est appréhendé comme un bien corporel, les régimes de responsabilité étant conceptualisés autour de la corporéité via la notion de garde13.

L’engagement de la responsabilité civile suppose la réunion de trois éléments : une faute, un dommage et un lien de causalité. Pour les robots, il s’agit avant tout d’identifier un responsable parmi plusieurs intervenants (concepteur, fabricant, utilisateur), ce qui pourrait relancer l’hypothèse doctrinale d’une responsabilité du fait de l’organisation14.

On peut actuellement s’appuyer sur la responsabilité du fait des choses pour les utilisateurs (1) et des produits défectueux pour les fabricants et les concepteurs (2).

1 – La responsabilité du fait des choses pour les utilisateurs

Prévue à l’article 1242 du Code civil, la responsabilité du fait des choses est engagée lorsqu’une chose dont on a la garde (l’usage, la direction et le contrôle) commet un dommage.

Cette notion de garde nous paraît adaptée pour un robot autonome sachant que l’utilisateur peut désactiver la machine et orienter son usage quand il le souhaite15.

Pour cette responsabilité, la victime doit prouver que la chose était dans une situation anormale ; c’est le cas lorsque le robot est placé ou utilisé de manière inadaptée.

Sur ce point, on pourrait lui préférer la responsabilité du fait des choses concernant les animaux, prévue à l’article 1243 du Code civil. Il suffit en effet que l’animal ait joué un rôle causal dans la production du dommage. Le propriétaire de l’animal ou celui qui s’en sert est responsable de plein droit, même lorsque l’animal s’est égaré ou échappé16.

Cette responsabilité aurait pour mérite de simplifier le régime et d’éluder les nombreux débats liés à l’anormalité de la chose.

2 – La responsabilité du fait des produits défectueux pour les fabricants et les concepteurs

Le régime spécial des produits défectueux prévu par l’article 1245 du Code civil peut être mis en œuvre lorsque l’automate présente une sécurité insuffisante à laquelle on peut légitimement s’attendre. Cela induit des mesures légales de protection du consommateur mentionnées par le Parlement européen sous forme de licences.

L’une des causes d’exonération de cette responsabilité est le risque de développement lorsque les connaissances scientifiques et techniques ne permettaient pas de déceler un vice. Le producteur doit néanmoins en prévenir les conséquences dommageables17.

Le problème réside bien dans la définition même d’un robot qui peut être autant un aspirateur domestique autonome qu’un humanoïde chargé de l’accueil du public.

Les risques pour autrui ainsi que les enjeux juridiques ne sont pas les mêmes ; si bien que le Parlement européen a proposé de mutualiser certains risques.

La multiplication de robots autonomes, dont certains pourraient être immatriculés comme le suggère le Parlement européen, conduit à se demander : « S’il convient de créer un régime d’assurance robotique reposant éventuellement sur l’obligation faite au fabricant de contracter une police d’assurance pour les robots autonomes qu’il fabrique »18. Cette obligation assurantielle serait associée à « un système d’immatriculation des robots avancés sur la base de critères de classification des robots, à des fins de traçabilité et en vue de faciliter la mise en œuvre de recommandations ultérieures ».

Il existe déjà une obligation en matière de produits défectueux pour les industriels ; supporter une obligation assurantielle du fait des risques occasionnés par les robots en circulation, sans en avoir la maîtrise, pourrait freiner la recherche et l’innovation.

L’obligation d’assurance devrait incomber aux usagers, comme le sont les véhicules à moteur immatriculés. En France, on peut songer à la compétence du fonds de garantie des assurances obligatoires de dommages avec un recours subrogatoire contre le fabricant et le concepteur.

Un régime autonome d’indemnisation serait alors applicable19.

Les recommandations du Parlement européen sont donc généralement prospectives mais actuelles sur certains points comme la protection des données personnelles.

B – La protection des données personnelles

L’essor des robots est consubstantiel au développement de l’informatique qui entraîne une explosion quantitative des données numériques (big data).

Un problème de transparence se pose sur la collecte des données personnelles.

La Commission nationale de l’informatique et des libertés, saisie par des associations de consommateurs, a récemment mis en demeure la société Genesis Industries pour ses robots Cayla et I-QUE en raison d’un défaut de sécurité portant gravement atteinte à la vie privée20.

La loi Informatique et libertés ainsi que le règlement européen sur la protection des données21 s’appliquent aux robots. L’article 34 de la loi Informatique et libertés prévoit à ce sujet que le fabricant « est tenu de prendre toutes précautions utiles, au regard de la nature des données et des risques présentés par le traitement, pour préserver la sécurité des données et, notamment, empêcher qu’elles soient déformées, endommagées, ou que des tiers non autorisés y aient accès ».

Quant au règlement européen, il impose à l’article 5 que les données à caractère personnel soient traitées « de manière licite, loyale et transparente au regard de la personne concernée (…) collectées pour des finalités déterminées, explicites et légitimes (…) adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ».

Cette règle s’applique aux robots autonomes mais la technologie de ces derniers reste évolutive.

Il serait ainsi souhaitable que l’Union européenne précise les règles liées aux données personnelles dans le domaine de la robotique par le biais d’actes dit innomés comme un livre blanc.

On peut penser à une autorisation spécifique de mise sur le marché conditionnée par des critères de protection avec une privacy by design and by défault (procédure d’effacement des données et d’anonymisation) et une information particulière sur le traitement de ces données.

Ces questions devraient être traitées de manière contractuelle22 ; le Parlement européen précise d’ailleurs que dans le cadre d’une licence (le terme est d’ailleurs très imprécis, est-ce une licence de logiciel ?), les concepteurs « devraient mettre en place des dispositifs de protection de la vie privée dès la conception pour assurer que les informations privées soient conservées en toute sécurité et toujours utilisées de manière appropriée »23.

On remarque ainsi que le régime juridique actuel dédié aux robots peut évoluer à mesure que ces derniers se perfectionnent.

II – Perspectives d’un nouveau régime juridique des robots

Les robots éducatifs ou de services vendus actuellement sur le marché sont limités à des tâches précises et ne bénéficient pas d’une intelligence artificielle dite forte et donc d’une conscience d’eux-mêmes.

Une intelligence artificielle multidisciplinaire et critique poserait des questions nouvelles.

C’est la raison pour laquelle des règles éthiques autour des robots ont été formulées (A).

Elles pourraient servir à élaborer un futur droit des robots (B) qui se rapprocherait du régime juridique dédié aux animaux (C).

A – Les lois de la robotique : esquisse d’un droit futur des robots

Afin d’éviter un usage malveillant des robots, trois lois de la robotique24 ont été pensées par l’auteur américain d’origine russe Isaac Asimov en 1942. Ces règles devaient être programmées dans le « cerveau positronique » du robot.

Même si ces lois ont une portée littéraire visant à placer le robot dans un combat intérieur entre sa sensibilité supposée et sa fonction de machine, elles n’en demeurent pas moins une première ébauche d’une éthique de la robotique. À l’heure où les grandes puissances mondiales investissent de plus en plus dans les systèmes autonomes militaires25, ces lois offrent un regard éthique sur l’action des machines.

En effet, l’éthique renvoie à un ensemble de conceptions morales alors que le droit est l’ensemble des règles qui régissent les rapports des membres d’une même société. Les termes sont proches, à ceci près que la règle de droit est susceptible de voir son exécution appliquée de manière contraignante. Ainsi, les lois d’Asimov ne sont pas des lois à proprement parler.

Elles sont ainsi présentées :

1) un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;

2) un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

3) un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la g première ou la deuxième loi.

Ces règles de conduite ne font pas mystère de la primauté accordée à la personne humaine.

Isaac Asimov a d’ailleurs proposé une loi zéro :

0) un robot ne peut nuire à l’humanité ni laisser sans assistance l’humanité en danger.

Ces règles devraient, selon le Parlement européen26, être intégrées à la législation pour encadrer les intelligences artificielles autonomes (il est intéressant de noter que les parlementaires s’inspirent ici d’une œuvre de science-fiction).

Il faut cependant préciser qu’elles sont difficilement transposables en l’état :

1) la supériorité de l’intégrité du corps humain et le fait que les choses ne doivent pas nuire aux personnes figurent déjà dans la loi.

2) ces lois peuvent parfois entrer en contradiction.

3) elles donnent une coloration morale à la machine qui devra faire des choix de conscience selon des calculs algorithmiques mettant en jeu l’intégrité des personnes. Est-ce que les entreprises accepteront d’être transparentes sur la manière dont elles programment la pseudo-conscience du robot ?

Ces interrogations ne doivent pas éluder la nécessité de passer d’une éthique des robots à un droit des robots.

B – D’une éthique de la robotique à un droit dédié aux robots

Le législateur doit affirmer des principes éthiques en robotique face aux nouveaux enjeux : collecte des données personnelles par des robots, surveillance des personnes et combinaison entre l’homme et la machine.

Inspirés par les trois lois de la robotique d’Asimov, de plus en plus de pays élaborent des chartes éthiques afin de fixer des normes pour les utilisateurs et les fabricants en tentant d’apporter des éléments de réflexion sur le développement futur de la robotique27.

Il serait intéressant de s’appuyer sur des centres de réflexion comme la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene (CERNA).

On peut aussi songer à créer des centres de recherche juridique sur la robotique comme le laisse entrevoir l’association française du droit des robots28 ou le laboratoire juridique Robolex.

C’est ainsi que les règles morales ou éthiques peuvent être progressivement transposées dans la législation. Face aux défis transfrontaliers aussi bien sociaux, économiques, financiers et juridiques, les règles éthiques ne suffiront pas et il faudra élaborer un droit particulier applicable aux robots sans minimiser le choix de société qu’un tel régime pourrait entraîner.

Les réflexions européennes, voire internationales, sont à encourager.

Le droit des robots ne se limite pas uniquement à un projet juridique mais renvoie également à une réflexion sociale et politique ; aussi faut-il réfléchir au statut social du robot pour préciser son statut juridique.

C – Rapprochements entre le droit des animaux et le droit des robots

Posséder un humanoïde peut entraîner une relation émotionnelle ou un transfert affectif.

À l’instar du droit des animaux29, on peut proposer un préjudice moral à son propriétaire si l’on porte atteinte à un robot. Il faut toutefois être vigilant sur une forme trop prononcée de robot dépendance et d’empathie artificielle30.

En outre, les robots sociaux pourraient bénéficier d’une protection pénale contre les dégradations et les atteintes commises par les hommes31, laquelle devrait être néanmoins plus faible que celle accordée au vivant. Cela suppose de leur accorder ce que l’on nomme des « droits de second ordre » pour préserver certaines valeurs morales comme l’interdiction de la violence gratuite.

L’évolution de la robotique étant difficilement prévisible, toutes ces propositions restent prospectives.

Pour imaginer un droit des robots, nous aurions besoin d’un dialogue multidisciplinaire.

Il doit selon nous être construit à partir d’un postulat32 : il n’y a pas d’homme-machine, il y a des hommes et des machines.

Notes de bas de pages

  • 1.
    Janicaud D., préface de l’édition américaine Powers of the rational, Indiana Univ Pr, Puissance du rationnel et techno-sciences, 1994, p. 384
  • 2.
    Selon la norme ISO 8373:2012.
  • 3.
    V. également : Nevejans N., Traité de droit et d’éthique de la robotique civile, 2017, Bordeaux, Les Études Hospitalières, Science, éthique et société, p. 1232 ; Bensoussan A. et Bensoussan J., Droit des robots, 2018, Bruxelles, Larcier.
  • 4.
    La robotique associe différentes techniques (mécaniques, électroniques et informatiques) permettant de concevoir un robot.
  • 5.
    Farjat G., « Entre les personnes et les choses, les centres d’intérêt : prolégomènes pour une recherche », RTD civ. 2002, p. 221.
  • 6.
    CPI, art. L. 611-1.
  • 7.
    CPI, art. L. 711-1.
  • 8.
    CPI, art. L. 511-1.
  • 9.
    Loiseau G. et Bourgeois M., « Du robot en droit à un droit des robots », JCP G 2014, 1231 : « Encore faut-il aussi, pour les besoins de la sécurité juridique, qu’un procédé d’identification fiable puisse garantir le lien entre l’utilisateur et son robot lorsque celui-ci reçoit pour instruction d’accomplir un acte juridique pour le compte du premier. Sur ce point, les règles posées en matière de signature électronique pourraient inspirer la conception d’un dispositif sécurisé ».
  • 10.
    Le robot peut être considéré comme un producteur de bases de données et être protégé au sens de l’article L. 342-1 du Code de la propriété intellectuelle. Néanmoins, seule une personne physique peut se voir reconnaître la qualité d’auteur (CPI, art. L. 113-1 : la qualité d’auteur appartient, sauf preuve contraire, à celui ou à ceux sous le nom de qui l’œuvre est divulguée).
  • 11.
    Larrieu J., Robot et propriété intellectuelle, 2016, Dalloz IP/IT, p. 291.
  • 12.
    http://www.europarl.europa.eu/sides/getDoc.do ?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//FR.
  • 13.
    La question est plus délicate pour une intelligence artificielle incorporelle : on a proposé de créer un régime général de responsabilité du fait des dispositifs mus par des IA :
  • 14.
    https://docassas.u-paris2.fr/nuxeo/site/esupversions/90fcfa29-62e4-4b79-b0b4-d1beacc35e86 ?inline ; par exemple Google n’a pas été sanctionné pour un algorithme issu « d’un processus purement automatique dans son fonctionnement et aléatoire dans ses résultats ».
  • 15.
    Gordon A., La responsabilité civile du fait de l’organisation : droit et société, 2010, Genève, Éditions Socio-Juridiques.
  • 16.
    Certains auteurs proposent de distinguer la garde de la structure de la garde du comportement du robot : Loiseau G. et Bourgeois M., « Du robot en droit à un droit des robots », JCP G 2014, 1231 : « La détermination de la garde, traditionnellement caractérisée par le pouvoir d’usage, de direction et de contrôle exercé de manière effective et indépendante, peut-être plus complexe s’il devait être considéré que les capacités cognitives du robot, qui lui confèrent une certaine autonomie d’action, sont susceptibles de le soustraire à ce pouvoir de l’utilisateur. On pourrait alors songer réactiver la distinction entre la garde de la structure et la garde du comportement : le fabricant du robot resterait gardien de sa structure, même après son transfert à un utilisateur qui n’acquérait que la garde du comportement de celui-ci. Il faudrait du coup répartir les situations selon que le comportement dommageable du robot aurait son origine dans les instructions de son utilisateur ou dans un défaut de sécurité imputable à son fabricant. Dans cette dernière hypothèse, la victime pourrait au demeurant agir contre le fabricant sur le fondement du régime spécial de la responsabilité du fait des produits défectueux ».
  • 17.
    C. civ., art. 1385.
  • 18.
    On peut se demander si une telle exonération peut être maintenue pour les robots : Bensamoun A., Des robots et du droit, 2016, Dalloz IP/IT, p. 281.
  • 19.
    http://www.europarl.europa.eu/sides/getDoc.do ?pubRef=-//EP//TEXT+TA+P8-TA-2017-0051+0+DOC+XML+V0//FR.
  • 20.
    Loiseau G. et Bourgeois M., « Du robot en droit à un droit des robots », JCP G 2014, 1231 : « L’indemnisation des victimes ne serait pas mieux assurée par une responsabilité individuelle des robots intelligents que par la responsabilité du fait d’autrui de leur propriétaire. En toute hypothèse, la réparation ne serait réellement garantie que par la couverture du risque robotique par l’assurance, laquelle peut être souscrite par l’utilisateur/propriétaire du robot sans qu’il soit utile de faire du robot une personne juridique qui devrait s’assurer contre son propre risque ».
  • 21.
    https://www.cnil.fr/fr/jouets-connectes-mise-en-demeure-publique-pour-atteinte-grave-la-vie-privee-en-raison-dun-defaut-de.
  • 22.
    Règl. PE et Cons. UE n° 2016/679, 27 avr. 2016, relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  • 23.
    Au même titre que la question de la propriété des données résultant d’un algorithme : Bensamoun A. et Loiseau G., L’intégration de l’intelligence artificielle dans l’ordre juridique en droit commun : questions de temps, 2017, Dalloz IP/IT, p. 239.
  • 24.
    Résolution européenne du 16 février 2017 précitée.
  • 25.
    Heudin J.-C., Les 3 lois de la robotique : faut-il avoir peur des robots ?, 2013, Science Ebook, p. 95.
  • 26.
    http://robots.blog.lemonde.fr/tag/robots-militaires/.
  • 27.
    Résolution européenne du 16 février 2017 précitée : « Considérant qu’il y a lieu de considérer les lois d’Asimov comme s’appliquant aux concepteurs, aux fabricants et aux opérateurs de robots, y compris de robots dotés d’autonomie et de capacités d’auto-apprentissage ».
  • 28.
    « La Corée du sud élabore une charte éthique des robots », Le Monde 7 mars 2007 ; http://www.roboethics.org/index_file/Roboethics %20Roadmap %20Rel.1.2.pdf.
  • 29.
    https://www.association-droit-robot.fr/.
  • 30.
    Nous renvoyons au célèbre arrêt Lunus de 1962 de la Cour de cassation. Cass. 1re civ., 16 janv. 1962, PB : « Indépendamment du préjudice matériel qu’elle entraîne, la mort d’un animal peut être pour son propriétaire la cause d’un préjudice d’ordre subjectif et affectif susceptible de donner lieu à réparation ».
  • 31.
    Tisseron S., Le jour où mon robot m’aimera. Vers l’empathie artificielle, 2015, Paris, Albin Michel.
  • 32.
    Mendoza-Caminade A., « Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ? », D. 2016, p. 445.
  • 33.
    Emprunté à Serge Tisseron dans son émission « Des hommes et des machines – Matière à penser », diffusée sur France Culture.
X