Les nuances des nouveaux régimes de responsabilité des IA en Europe

Publié le 15/03/2023

Comment adapter les règles de responsabilité à l’ère numérique ? En créant un régime dédié ou en adaptant les systèmes de responsabilité contractuelle et délictuelle existants ? C’est la deuxième option qui a été retenue par la Commission européenne. Yannick Meneceur, magistrat en disponibilité et maître de conférences associé à l’Université de Strasbourg, analyse en détail les évolutions envisagées. 

Les nuances des nouveaux régimes de responsabilité des IA en Europe
Photo : ©AdobeStock/Nouah9000

La question de l’évolution des régimes de responsabilité avec l’avènement de nouvelles technologies n’est pas un sujet nouveau pour les juristes. À titre d’exemple, le développement des véhicules automobiles ou des produits pharmaceutiques a conduit à de très lentes évolutions, tant législatives que jurisprudentielles, à la recherche d’équilibres pour créer un cadre de confiance propice à l’innovation. Le déploiement, exponentiel, des diverses formes d’algorithmes dans nos vies quotidiennes, dont ceux d’intelligence artificielle (« IA[1] »), ainsi que la survenance de la robotique[2], nous posent les mêmes défis et s’ouvre aujourd’hui aux politiques de conformité pour prévenir les risques[3]. La proposition de cadre réglementaire sur « l’IA » présentée par la Commission européenne (RIA) a suscité, toutefois, bien des commentaires et des analyses, pour critiquer par exemple le manque de mécanismes de responsabilité ex post, en cas de dommages[4].

Différentes options ont pu être évoquées pour adapter les mécanismes de responsabilité aux réalités de l’ère numérique, comme la création d’une personnalité juridique fictive pour les systèmes autonomes, mutualisant ainsi le risque par une approche assurantielle, ou encore la création de mécanismes sans faute. La Commission a pris la voie de l’adaptation des mécanismes existants avec deux propositions publiées le 28 septembre 2022 :

*L’une pour la modernisation du régime de responsabilité objective – Il s’agit ici d’une proposition de révision de la directive sur la responsabilité du fait des produits défectueux[5], visant à moderniser les règles existantes concernant la responsabilité objective des fabricants pour les produits défectueux (des technologies intelligentes aux produits pharmaceutiques) ; ces règles ont vocation à améliorer la sécurité juridique des entreprises innovantes avec des technologies complexes et à garantir, dans le même temps, une indemnisation équitable des victimes d’un dommage, si elles démontrent un défaut du système ;

*L’autre venant compléter les régimes existants de responsabilité délictuelle – Ce complément au RIA prend la forme d’une proposition de nouvelle directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle[6], harmonisant les règles nationales en matière de responsabilité applicables à « l’IA » et permettant aux victimes de dommages liés à « l’IA » d’obtenir réparation, si elles démontrent une faute du fournisseur.

Ces deux textes répondent également aux objectifs du livre blanc sur « l’IA » publié en février 2020 et ont vocation à s’intégrer dans l’ordre juridique existant des États membres après transposition. Des difficultés d’articulations et d’interprétations entre ces deux nouveaux régimes peuvent toutefois être déjà anticipées pour des logiciels complexes, où le système « d’IA » n’est qu’une composante, cette composante pouvant elle-même assembler différentes couches ou appeler des fonctionnalités externes (API – application programming interface). Pour mémoire, la proposition de directive sur les produits établit, en cas de défaut, une responsabilité solidaire du fabricant du composant et du produit final[7].

Nous étudierons successivement l’évolution du régime de responsabilité objective, au travers la proposition de « directive produits » (A), et l’évolution du régime de responsabilité délictuelle, spécialisée à « l’IA » (B).

A.    Régime de responsabilité objective : la proposition de révision de la directive sur la responsabilité du fait des produits

1.Champ de la proposition

Cette révision de la directive sur la responsabilité du fait des produits étend le champ de la précédente directive de 1985 à l’économie numérique en incluant tant les produits physiques que les systèmes « d’IA ». Cette proposition de modification de la directive sur les produits défectueux ne s’adresse donc pas spécifiquement aux systèmes « d’IA » (et ne cible pas que les systèmes à « haut risque » définis dans la proposition de règlement sur l’IA – RIA), mais introduit des mesures permettant de mieux les appréhender. Son objectif d’harmonisation entre les États membres est élevé, l’article 3 prohibant l’adoption par les États membres de toute mesure divergente (plus ou moins protectrice).

Sur un plan matériel, seuls les logiciels développés hors activité commerciale (en open source) sont exclus afin de ne pas entraver l’innovation[8]. Il est à noter que ce régime ne « s’arrime » pas directement à la proposition de règlement sur « l’IA » (RIA) de la Commission, contrairement au régime spécial de responsabilité extracontractuel que nous évoquerons ci-après.

S’agissant de la compétence personnelle, les victimes sont limitées dans ce texte aux particuliers[9]. La proposition responsabilise en revanche tous les « opérateurs économiques », incluant les fabricants/producteurs, mais aussi toutes les entités de la chaîne d’approvisionnement – y compris le fournisseur d’un service connexe, le représentant autorisé ou encore le distributeur, et même les plateformes en ligne si elles ne sont pas qualifiées d’hébergeurs[10].

Les dommages éligibles à la réparation dans le cas d’un défaut sur un produit sont envisagés très largement, en visant tant les dommages corporels que matériels, ou encore ceux résultant de la perte de données[11]. Il doit être relevé que les atteintes aux droits fondamentaux ne sont pas couvertes par ce texte et relèvent des règles nationales de responsabilité civile de droit commun[12].

2. Évolution du régime de responsabilité objective

Caractère défectueux du produit

L’économie générale du régime actuel de responsabilité du fait des produits n’est pas fortement modifiée, puisque le texte continue d’établir un régime de responsabilité objective, sans avoir à démontrer une faute, mais exigeant tout de même de démontrer l’existence d’un défaut[13]. Ce défaut ne reste imputable à l’opérateur économique qu’en fonction d’un usage raisonnablement attendu au moment de sa mise en circulation, mais de nouveaux critères apparaissent pour s’adapter à des produits comme les « IA ». Ainsi, il sera examiné si l’opérateur continue d’avoir un contrôle sur son produit, notamment pour des fins de maintenance de systèmes opérant des apprentissages postérieurs (l’hypothèse ici est un système « d’IA » ayant une capacité d’apprentissage continue après la mise sur le marché) ou interagissant avec d’autres systèmes. Pour les modèles employés par les « IA », le défaut serait à apprécier s’il se produit de manière systémique par comparaison avec les normes techniques existantes dans le secteur concerné ou, en l’absence de normes, probablement avec les performances humaines.

Charge de la preuve

Comme dans le régime actuel, c’est à la victime de produire tous les éléments au soutien de la plausibilité de l’action et de prouver le défaut du produit, le dommage subi et le lien de causalité entre eux (lien qui peut être présumé, nous le verrons)[14]. La nouveauté du régime est d’intégrer une présomption simple de défectuosité si le défendeur n’est pas en mesure de présenter des preuves en réponse à des demandes suffisamment plausibles[15]. Cette même présomption peut être établie si le demandeur démontre que le produit ne remplit pas les exigences de sécurité obligatoires imposées par le droit de l’Union ou le droit national, ou, alternativement, s’il démontre que les dommages sont causés par un dysfonctionnement manifeste du produit dans des circonstances normales.

En cas de résistance du défendeur, les tribunaux disposeront, s’ils ne le détiennent pas déjà, d’un pouvoir d’injonction[16], n’exigeant pas une demande préalable infructueuse de la victime, mais limité à ce qui est nécessaire et proportionné. Les intérêts légitimes de chaque partie comme le secret des affaires et la confidentialité de certaines informations, seront à prendre en compte par les juges. En matière « d’IA », il sera relevé que la démonstration d’un manquement à une obligation de sécurité ou d’un dysfonctionnement manifeste, à la charge de la victime, pourrait exiger d’avoir accès à des éléments techniques particulièrement complexes dont la divulgation (ordonnée par le juge s’il estime les premières allégations suffisamment plausibles) et dont la compréhension laissera un large champ à l’expertise judiciaire.

Dès lors que le produit est considéré (de manière établie ou présumée) comme défectueux et que le dommage causé est compatible avec le défaut en question, le lien de causalité est alors présumé[17]. Ce régime, nous le verrons, est plus favorable que le régime délictuel spécifique aux systèmes « d’IA » qui instaure également une présomption de lien de causalité entre le manquement à une obligation de vigilance et le dommage, mais réfragable et avec des dispositions spécifiques pour les « IA » classifiées à haut risque.

En toute hypothèse, si le juge considère qu’il est excessivement difficile pour la victime, d’un point de vue technique ou scientifique, de démontrer soit la défectuosité, soit la causalité, soit les deux, celle-ci est autorisée à démontrer, sur la base d’éléments de preuve suffisamment pertinents, que le produit a contribué au dommage et qu’il est probable que le produit est défectueux ou que sa défectuosité est une cause probable du dommage[18].

Causes d’exonération de l’opérateur économique

L’opérateur économique n’étant responsable que de ce qu’il maîtrise, le droit positif actuel continuera toutefois de s’appliquer. Il pourra donc continuer à être exonéré de responsabilité s’il démontre la probabilité que « le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation par lui ou que ce défaut est né postérieurement[19] ». Cette limite peut sembler problématique avec les algorithmes d’apprentissage automatique (machine learning), si l’apprentissage se poursuit après la mise sur le marché. La proposition de directive conforte donc cette exonération du fait de défaut ultérieur[20], sauf lorsque l’opérateur économique conserve encore un contrôle sur son produit et que le défaut concerne un service lié (ou connexe), un logiciel, y compris les mises à jour ou mises à niveau, ou encore l’absence de ces dernières pour maintenir la sécurité du système[21].

Enfin, la proposition supprime certaines limites, comme le seuil de 500 € applicable à la réparation des dommages matériels (sur un bien autre que le produit défectueux lui-même), imposé par la directive de 1985[22].

B.    Régime délictuel : la proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle

1.Champ de la proposition

Il doit d’abord être relevé que l’objectif d’harmonisation de cette proposition est minimal en comparaison de la proposition de révision de la directive sur la responsabilité du fait des produits, laissant ainsi la possibilité « aux personnes qui demandent réparation pour des dommages causés par des systèmes d’IA d’invoquer les règles plus favorables du droit national[23] ». De même, l’exposé des motifs rappelle que l’harmonisation envisagée par ce texte est « ciblée », et qu’elle n’a pas vocation à interférer avec les contours généraux de responsabilité civile des droits nationaux des États membres[24]. Pour des systèmes « d’IA » employés sur l’ensemble du territoire de l’Union, cette harmonisation minimale risque de conduire à un fort morcellement de la jurisprudence, dans la mesure où la notion de faute est loin d’être harmonisée.

Il doit aussi être relevé que cette proposition est à analyser comme une extension du RIA, pour y ajouter une « brique » relative à la responsabilité. Cette proposition reprend en effet la définition du « système d’IA », telle que rédigée dans la proposition de RIA publiée par la Commission en avril 2021, à savoir « un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées à l’annexe I [du RIA] et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ».

Ainsi, contrairement à la proposition de révision de la directive sur les produits qui s’étend de manière large à divers produits et logiciels de l’économie numérique, ce régime s’inscrit dans le prolongement exact du périmètre du RIA pour déterminer un régime de responsabilité spécial, dédié aux « IA », mais dans des circonstances distinctes de la « directive produits » : ici, une faute du producteur sera recherchée et à démontrer. Pour le reformuler, il est laissé aux mécanismes de responsabilité du fait des produits une protection générale des consommateurs, en cas de défaut d’un produit (en ne laissant aucune marge de latitude aux États), et ce nouveau mécanisme vient quant à lui adapter les régimes de responsabilité civile de droit commun pour faute aux particularités de fonctionnement des « IA ». Comme nous l’évoquions en introduction, le défaut d’adaptation des régimes de responsabilité avait, en effet, été soulevé lors de la publication du RIA en avril 2021 : cette publication différée est probablement à lire au regard des compétences des DG en charge de piloter différents aspects de ces réglementations. Le RIA relève de la DG CONNECT pour organiser la mise sur le marché des produits « d’IA » (marché unique numérique) et la question, juridiquement plus épineuse du régime de responsabilité et a été confiée à la DG JUST, nécessitant probablement plus de temps d’élaboration. Cela a permis, ainsi, de ne pas contraindre l’agenda du RIA, de séparer les problématiques et, surtout, de laisser les États membres transposer le contenu de la directive (alors que le RIA s’appliquera, par nature, directement).

Toujours dans la même logique, cette proposition concerne les fournisseurs comme les utilisateurs, professionnels et non-professionnels, tels que définis dans le RIA. Les évolutions substantielles de définition du RIA auront donc un impact direct aussi sur ce texte dont la portée est donc susceptible de changer durant le processus législatif du RIA. Les demandes de réparations ne sont pas restreintes ici aux particuliers, mais ouvertes à tout intéressé, personnes physiques ou morales[25].

2.Nouveau régime de responsabilité délictuelle applicable aux systèmes d’intelligence artificielle

Caractéristiques générales du nouveau régime de responsabilité délictuelle 

L’objectif de la Commission, par ce texte, est de permettre aux victimes d’un dommage causé par une « IA » de bénéficier de la même protection que pour d’autres technologies. Les conditions d’engagement sont classiques en distinguant dommage, faute et lien de causalité, mais en apportant, dans le contexte particulier des systèmes « d’IA », une facilitation pour les victimes en ce qui concerne la charge de la preuve et l’établissement du lien de causalité, ajoutant aux règles nationales des États des régimes de responsabilité pour faute.

Par cohérence avec le RIA, certains aspects de ce nouveau régime sont toutefois restreints aux seuls systèmes considérés à « haut risque » par la proposition de règlement[26], créant ainsi de possibles brèches en fonction des systèmes considérés, parfois de manière assez arbitraire, comme étant – ou non – éligibles à cette catégorie. Des fournisseurs de systèmes considérés à faible risque pourraient se retrouver soumis à une responsabilité accrue si leurs propres systèmes sont intégrés ou employés comme des systèmes à haut risque, ce qui pourrait décourager soit la production de solutions tierces ou open source, soit en restreindre l’utilisation[27].

Caractère de la faute

S’agissant de la faute, il est exigé de constater un « manquement à un devoir de vigilance[28] prévu par le droit de l’Union [en référence notamment au RIA] ou le droit national ». Ce régime de responsabilité ne concerne que les dommages causés par le résultat d’un système « d’IA » ou l’incapacité de ce système à produire un résultat, par la faute d’une personne. Comme pour le RGPD, si une personne s’interpose entre le fonctionnement du système et le dommage, c’est le régime de droit commun qui trouve à s’appliquer. C’est en effet à l’agent humain ayant omis ou suivi les conseils du système d’assumer alors potentiellement la responsabilité du dommage, la victime se retrouvant alors munie des mécanismes procéduraux habituels de recherche de responsabilité civile. Cette approche pose la difficulté, connue, d’une interposition factice d’un opérateur humain pour faire échapper le système aux prévisions de cette directive. L’emploi « d’IA » de génération de texte par des professionnels paraît relever de cette hypothèse.

Charge de la preuve

Pour les systèmes « d’IA » considérés à haut risque, les juridictions nationales peuvent enjoindre les défendeurs de divulguer les éléments pertinents de preuve, dès lors que le demandeur prouve un premier refus du fournisseur ou de l’utilisateur de communiquer ces éléments[29]. Pour mémoire, le régime de la refonte de la « directive produits » étudiée précédemment est bien plus favorable à la victime en ne limitant pas à un type de système ce pouvoir d’injonction et en n’exigeant pas un premier refus du fournisseur ou de l’utilisateur. En revanche, dans le cadre d’une action, les deux régimes imposent à la victime de présenter des éléments propres à étayer la plausibilité cette action en réparation, en ajoutant ici l’exigence d’avoir mis en œuvre de moyens proportionnés pour collecter les éléments de preuve auprès du défendeur[30]. Il conviendra de voir comment la notion de « plausibilité » sera interprétée par les tribunaux, mais l’asymétrie des informations entre des fournisseurs, pouvant remonter jusqu’à des entreprises internationales, bien conseillées et peu enclines à divulguer des éléments susceptibles de mettre en cause sa responsabilité, et les victimes laisse craindre un certain manque de motivation pour saisir la justice. Sans omettre la technicité des potentielles réponses, probablement inexploitables pour des profanes (et même les juges). Précisons que ce pouvoir d’injonction semble également ouvert aux actions potentielles[31] et ne semble pas limité aux seules recherches de responsabilité pour faute, dès lors que la demande concerne un système « d’IA » à haut risque[32].

Comme dans les dispositions de la proposition de réforme de la « directive produits », le juge devra prendre en compte de manière proportionnée les intérêts légitimes de toutes les parties, notamment la protection des secrets des affaires et les risques sur la propriété intellectuelle, pour enjoindre la communication d’informations[33]. En cas de résistance du défendeur à l’injonction, les juges pourront présumer un non-respect d’un devoir de vigilance pertinent[34] (notamment en référence aux exigences du RIA). Le défendeur reste admissible à renverser cette présomption.

Présomption réfragable du lien de causalité

À l’avantage des victimes par rapport au droit commun de la responsabilité, la proposition établie une présomption, réfragable, de lien de causalité entre la faute du défendeur et le résultat produit par le système « d’IA » (ou de son incapacité à produire un résultat), lorsque plusieurs conditions cumulatives sont remplies[35].

Ainsi la victime doit ainsi démontrer que : a) elle a prouvé (ou la juridiction a présumé) la faute du défendeur (ou d’une personne relevant de sa responsabilité) d’avoir manqué à un devoir de vigilance prévu par le droit de l’Union ou le droit national ; b) il est raisonnablement probable, compte tenu des circonstances de l’espèce, que la faute a influencé le résultat du système « d’IA » ; c) elle a démontré que le résultat du système « d’IA » est bien à l’origine du dommage.

Il doit être souligné que la proposition de directive ne limite pas, ici, ce mécanisme de présomption aux seules « IA » à haut risque, telles que définies par le RIA. Pour ces systèmes à « haut risque », la directive distingue ensuite les fournisseurs[36] des utilisateurs[37] en ajoutant des conditions pour établir une présomption de causalité. Pour les fournisseurs, il devra être démontré a) que ce fournisseur n’a pas respecté les exigences du RIA, à savoir que l’outil n’a pas été développé en utilisant des méthodes d’entraînement de qualité, b) qu’il ne répond pas aux exigences de transparence requises, c) qu’il ne permet pas un contrôle humain effectif, d) qu’il n’a pas été conçu de manière à offrir des résultats exacts et robustes, ou encore e) qu’il n’a pas été corrigé immédiatement pour mettre le système en conformité. Pour les utilisateurs d’un système « d’IA » à haut risque, la victime devra prouver : a) que cet utilisateur ne s’est pas conformé aux obligations qui lui incombent d’utiliser ou de surveiller le système « d’IA » conformément à la notice d’utilisation jointe ou, le cas échéant, de suspendre ou d’interrompre son utilisation, b) ou qu’il a exposé le système d’IA à des données d’entrée sous son contrôle qui ne sont pas pertinentes au regard de la destination du système.

Des exemptions de responsabilité sont prévues par l’article 10 de la proposition, si l’opérateur économique prouve (de manière non cumulative) : a) et b) qu’il n’a pas mis le produit sur le marché ou qu’il ne l’a pas mis en service en qualité de fabricant, importateur ou distributeur, c) qu’il est probable que le défaut qui a causé le dommage n’existait pas au moment où le produit a été mis sur le marché, mis en service ou, dans le cas d’un distributeur, mis à disposition sur le marché, ou que ce défaut est apparu après ce moment, d) que la défectuosité est due à la conformité du produit à des réglementations obligatoires édictées par les autorités publiques, e) dans le cas d’un fabricant, que l’état objectif des connaissances scientifiques et techniques au moment où le produit a été mis sur le marché, mis en service ou pendant la période au cours de laquelle le produit était sous le contrôle du fabricant n’était pas de nature à rendre le produit défectueux, f) que la défectuosité du produit est imputable à la conception du produit dans lequel le composant a été intégré ou aux instructions données par le fabricant de ce composant, g) dans le cas d’une personne qui modifie un produit, que la défectuosité qui a causé le dommage est liée à une partie du produit non affectée par la modification.

De manière générale, toujours pour ces systèmes à haut risque, la présomption de causalité sera écartée si le défendeur démontre que la victime peut raisonnablement accéder à des preuves et à une expertise permettant de prouver le lien de causalité entre la faute et le résultat produit par le système.

Ce nouveau mécanisme de responsabilité, présenté pour alléger l’administration de la preuve des victimes de systèmes « d’IA », contient donc de très nombreuses nuances, justifiées par une cohérence avec la proposition de RIA, mais limitant ces voies de recours à des demandeurs très déterminés et, probablement s’ils ne sont pas eux-mêmes techniciens de la matière, assistés d’experts de haut niveau. Ces voies ne seront probablement pas investies en masse par les consommateurs qui n’auront ni le temps, ni les moyens de suivre de tels contentieux. Comme pour d’autres contentieux dans le domaine numérique, ce sera probablement la société civile et des avocats très spécialisés qui devront se saisir d’affaires individuelles, possiblement sérielles, pour faire fonctionner pleinement ces mécanismes.

[1] Afin de se garder de tout anthropomorphisme et par commodité éditoriale, le terme d’intelligence artificielle sera présenté sous la forme de son acronyme et entre guillemets. Cette présentation a été choisie en remplacement des termes, souvent plus appropriés, de « systèmes d’intelligence artificielle », « d’outils d’intelligence artificielle » ou « d’applications de l’intelligence artificielle ».

[2] Il ne sera évoqué dans cette étude que la question des logiciels, le cadre juridique de la robotique entrant notamment, dans le champ du droit de l’Union, dans les modifications en cours de la directive 2006/42/CE dite « directive machine ».

[3] Y. Meneceur, Analyse des principaux cadres supranationaux de régulation des applications de l’intelligence artificielle – Des éthiques de l’intelligence artificielle à la conformité ? in A. Mendoza-Caminade (dir.), L’entreprise et l’intelligence artificielle – Les réponses du droit, Presses de l’Université Toulouse 1 Capitole, pp.51-83

[4] V. par exemple N-A. Smuha et al., How the EU Can Achieve Legally Trustworthy AI: A Response to the European Commission’s Proposal for an Artificial Intelligence Act, SSRN, 31 août 2021, accessible sur : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3899991, consulté le 12 mars 2023

[5] COM(2022) 495 final, Proposition de directive relative à la responsabilité du fait des produits défectueux, 28 septembre 2022, texte disponible en anglais, modifiant la directive 85/374/CEE du Conseil relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux

[6] COM(2022) 496 final, Proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle, 28 septembre 2022

[7] Cons.40 de la proposition de révision de la directive du fait des produits

[8] Cons.13 de la proposition

[9] Art. 5 de la proposition

[10] Art.4, 16 de la proposition

[11] Art.4, 6 de la proposition

[12] Ces règles étant modifiées par la directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle que nous étudierons à la suite, avec un allégement probatoire. Par ailleurs, la proposition de nouveau régime extracontractuel offre, nous le verrons, une meilleure latitude laissée aux États membres pour établir des régimes plus favorables aux victimes, comme en France avec le régime de responsabilité du fait des choses, sans faute.

[13] Art.6 de la proposition

[14] Art. 9, 1 de la proposition

[15] Art.9, 2, a de la proposition

[16] Art. 8 de la proposition

[17] Art.9, 3 de la proposition

[18] Art.9, 4 de la proposition

[19] Directive 85/374/CEE, art. 7, b. et C. civ., art. 1245-10, 2°

[20] Art.10, 1, c de la proposition

[21] Art.10, 2 de la proposition

[22] S’agissant du droit civil français, V. C. civ., art. 1245-1, al. 2

[23] Cons.14 de la proposition

[24] Cons.10 de la proposition

[25] Art. 2, 6 de la proposition, définition du demandeur

[26] La liste des domaines et des applications à haut risque sont énumérées dans l’annexe III de la proposition de RIA

[27] En ce sens, V. A. Bensamoun, Maîtriser les risques de l’intelligence artificielle : entre éthique, responsabilisation et responsabilité, JCP G n°5, 181, 6 février 2023, p.287

[28] Ce devoir de vigilance est défini dans l’art.2, 9 de la proposition comme « la norme de conduite requise, fixée par le droit national ou le droit de l’Union, pour éviter de porter atteinte aux intérêts juridiques reconnus au niveau du droit national ou du droit de l’Union, notamment la vie, l’intégrité physique, les biens et la protection des droits fondamentaux ».

[29] Art.3, 1 de la proposition

[30] Art. 3, 2 de la proposition

[31] L’art 3,1 de la proposition mentionne « le demandeur potentiel » et l’art 3, 4 « une action potentielle »

[32] Le titre de l’art.3 n’est pas limité à la notion de faute, contrairement à l’art.4 sur le lien de causalité. L’art.3, 1 limite ce pouvoir d’injonction aux systèmes à haut risque.

[33] Art. 3, 4 de la proposition

[34] Art.3, 5 de la proposition

[35] Art.4, 1 de la proposition

[36] Art. 4, 2 de la proposition

[37] Art. 4, 3 de la proposition

Synthèse des dispositions présentées par la Commission européenne adaptant

les règles de responsabilité à l’ère numérique

 

 

 

Modernisation du régime de responsabilité du fait des produits Adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle
Références du texte COM(2022) 495 final, Proposition de directive relative à la responsabilité du fait des produits défectueux COM(2022) 496 final, Proposition de directive relative à l’adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle
Type de mécanisme Responsabilité objective pour défaut Responsabilité pour faute
Textes modifiés Directive 85/374/CEE Régimes nationaux de responsabilité extracontractuelle
Produits concernés Art. 1 Tous biens meubles, comprend l’électricité, les fichiers numériques de fabrication et les logiciels Systèmes d’IA (SIA) tels que définis dans le RIA
Harmonisation Art. 3 Maximale – pas de dérogation nationale possible Cons.10 Minimale – possibilité d’invoquer le droit national si plus favorable
Liens avec le RIA Autonome Dépend de la définition de l’IA (annexe I RIA) et des systèmes à haut risque (annexe III RIA)
Requérants Art.5 Personnes physiques Art. 2.6 Personnes physiques et morales
Défendeurs Art. 4.16 Opérateurs économiques au sens large Fournisseurs et utilisateurs
Type de dommages Art. 4.6 Tous dommages corporels et matériels, ou encore ceux résultant de la perte de données, sauf atteinte aux droits fondamentaux Tous dommages
Source de responsabilité Art. 6 Caractère défectueux du produit Art. 4.1.a Manquement à un devoir de vigilance
Charge de la preuve Art. 9.1 et 9.2 Charge à la victime de produire tous les éléments au soutien de la plausibilité de l’action et de prouver le défaut du produit et le dommage subi (lien de causalité présumé) Art. 4.1, 4.2 et 4.3 Charge à la victime de de prouver la faute et du lien de causalité avec le dommage (lien de causalité présumé sous conditions, notamment pour les SIA à haut risque, et réfragable)
Injonction au demandeur Art. 8 Injonction du juge au défendeur possible sans une première carence de réponse à la victime Art. 3.1 Pour les SIA à haut risque, injonction du juge au défendeur possible si carence de réponse à une première demande de la victime
Causes d’exonération Art. 9.4 Si le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation ou que ce défaut est né postérieurement Art.10 Si le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation ou que ce défaut est né postérieurement, que le demandeur n’est pas à l’origine de la mise sur le marché, que la défectuosité vient du respect d’un règlement, que l’état objectif des connaissances scientifiques ne rendait pas prévisible le défaut ou la responsabilité d’un tiers.

Source : auteur

Plan
X