Intelligence artificielle : qui sera responsable ?

Publié le 29/05/2018

En 2018, l’intelligence artificielle (IA) n’est plus un fantasme relevant de la plus pure science-fiction. Pour les différentes professions du droit – magistrats, juristes, huissiers, experts, avocats, mais aussi pour les entreprises comme les assureurs, c’est déjà une réalité. Ils y sont déjà confrontés dans leurs pratiques et réflexions. À l’occasion d’un colloque se tenant le 10 avril dernier, la Compagnie nationale des experts de justice en informatique et techniques associées (CNJEITA) a réuni de nombreux interlocuteurs issus de ces différentes sphères afin d’évoquer la question de la responsabilité lorsque l’on parle intelligence artificielle. Clichés, peur de l’inconnu, avancées potentielles, ce fut l’occasion aussi de définir l’IA, de délimiter ses futurs apports comme les questions éthiques qu’elle soulève et de revenir, avec l’avocat Philippe Glaser, sur les implications du droit.

La récente actualité de l’intelligence artificielle (IA) ne la présente certes pas sous son jour le plus favorable. C’est en effet avec l’exemple de la première victime d’une voiture Uber sans chauffeur, que le colloque a débuté, par la bouche de Jean Messinesi, président du tribunal de commerce de Paris, mettant en lumière la question compliquée des responsabilités engageant l’IA. Le 19 mars dernier en effet, une femme a été percutée à Tempe, dans l’État de l’Arizona, alors qu’elle traversait la rue hors des passages piétons. En théorie, le système permet de parer à ces comportements grâce à des capteurs. Alors où s’est nichée la défaillance ? Humaine ou robotique, ou inextricable mélange des deux ?

Nul doute que cet exemple illustre parfaitement les problématiques soulevées par l’émergence d’une IA de plus en plus présente dans tous les secteurs de notre société. En France, la réalité gagne aussi du terrain, comme l’a souligné Fabien Cleuet, président de la CNJEITA. « La commission sénatoriale a convoqué les industriels et les chercheurs : d’ici 2020, les véhicules autonomes pourraient être mis en circulation. C’est un temps très court ! », a-t-il souligné. Dans un rapport d’information du Sénat « Véhicule sans chauffeur : un futur imminent », déposé le 27 novembre 2017, on peut lire : « En France, une réflexion a été conduite sur les véhicules autonomes dans le cadre du plan « Nouvelle France industrielle », dont la principale conclusion sur ce point était que l’autonomie comme valet de parking, dans des embouteillages ou sur autoroute pourrait être atteinte avant 2020, cependant qu’il faudrait une dizaine d’années supplémentaires pour obtenir des véhicules capables de parcourir de façon autonome les mêmes trajets réguliers, alors que l’autonomie totale en tout contexte serait inaccessible au moins jusqu’en 2030 ». Tout ceci dans un contexte où « l’ordonnance n° 2016-1057, du 3 août 2016, permet, sous un strict encadrement, la circulation expérimentale de véhicules « à délégation partielle ou totale de conduite », sous réserve d’un décret en Conseil d’État et d’un arrêté interministériel ».

Les transports, premiers concernés

Cette question des transports constitue d’ailleurs « le premier secteur à nous mettre en situation d’expertise avec des objets numériques », qui soulève la question de la décision véritablement autonome et, son corollaire, des responsabilités et des dommages. Preuve que l’avenir prend la direction de véhicules sans conducteur, « un opérateur chinois a déjà investi plus d’un milliard de dollars », a encore souligné Cleuet. Il existe des systèmes de freinage d’urgence, qui existe déjà sur des voitures ou des camions. Ainsi, Fabien Cleuet a posé LA question : que ferait-on dans le cas d’une expertise du cas Uber ? « La question est particulièrement complexe car elle comprend une technicité très forte. Par ailleurs, il est difficile d’avoir des informations précises, car il y a eu une transaction financière avec la famille de la victime qui s’est faite très rapidement. C’est dommage sur le plan technique, mais aussi pour la démarche expertale », a-t-il déploré. Outre la technicité du dossier, d’autres questions émergent : « à partir de quels paramètres un objet a pris une décision ? ». Sans aucun doute, le « périmètre juridique et contractuel va changer », assure Fabien Cleuet.

L’automobile n’entrevoit pas son avenir sans IA, comme l’a exposé Jean-Louis Lequeux, président de VeDeCom Tech. Aujourd’hui, l’on compte cinq niveaux d’autonomie (par rapport aux nouveaux équipements et à la responsabilisation du conducteur). Les niveaux 2 et 3 permettent de lâcher le volant, de suivre une route dans une courbe et de respecter la distance entre véhicule, tandis qu’avec le niveau 4, dans certaines conditions et sur l’autoroute, l’on est en mesure d’apporter une réelle assistance et où l’ancien conducteur peut arriver à faire d’autres tâches. Le niveau 5 correspond à une autonomie complète.

Aujourd’hui, on assiste à un empilement de technologies comme la robotisation de la direction, des freins ou du moteur. Jean-Louis Lequeux précise que les capacités de perception proche ou lointaine des obstacles sont rendues possibles grâce à des outils très perfectionnés comme les radars, les lidars, les sonars, les caméras thermiques ou encore les caméras stéréo. La géolocalisation terrestre (GPS) doit être rendue la plus précise possible par le truchement d’outils complémentaires (permettant la localisation relative). « Ainsi l’information des données GPS couplée aux informations de positionnement par rapport à la bordure du trottoir ou au clocher de l’église, vont assurer le positionnement précis du véhicule. Enfin, la future connectivité entre véhicules permettra à tout moment d’échanger sur sa propre position. Les États-Unis pour l’instant, Google en tête, affiche une belle longueur d’avance avec 6 millions de km déjà parcourus en véhicule autonome, et 4 milliards sur simulateur, ainsi qu’une réserve de 20 000 scenarii possibles. La France, si elle n’a pas « à rougir » selon Jean-Louis Lequeux, fait preuve de chiffre bien plus modestes : le programme Moove compte seulement 10 véhicules en interurbain. « Mais les autorisations, moins de 100 par an, se donnent au compte-goutte dans l’Hexagone, tandis qu’aux États-Unis, entre 50 000 et 100 000 autorisations sont délivrées annuellement ». Cet engouement intéresse d’ores et déjà un millefeuille technologique dont les acteurs se frottent les mains : les techno providers (Intel, Blackberry…), les équipementiers, les constructeurs, les GAFAM et les opérateurs de services comme Uber ou Car2Go perçoivent la manne financière. Mais derrière ces énormes opportunités de business, se dessinent des questionnements éthiques sur la protection des données, puisqu’avec ces « véhicules qui communiquent énormément, on va avoir énormément de données sur les conducteurs », reconnaît Jean-Louis Lequeux.

L’aéronautique constitue un secteur qui prouve que l’expertise humaine est encore irremplaçable. Jean-Arnaud Causse, expert CNJEITA, reconnaît certes que le secteur s’intéresse à l’IA. Pour autant, il avoue que « jusqu’à aujourd’hui, le décisionnaire, c’est de l’humain, spécialement en situation de stress ». Lors d’enquêtes (après des accidents, NDLA) il s’agit de déterminer « les responsabilités pénales et financières. Le décideur, et donc le responsable, est le pilote. Il a déjà des applications pour éviter des phénomènes météo, donc pas de doute l’IA s’est invitée dans le cockpit. L’enjeu de demain est le pilotage assisté, puisque la tendance est à réduire le coût d’exploitation. Les études visent à réduire le nombre de pilote à un dans le cockpit, contrairement à aujourd’hui, où ils sont deux » !

Bien sûr, la question de la compétence humaine se pose. « Dans de nombreuses catastrophes, on compte une erreur humaine, mais il y a aussi beaucoup d’accidents évités grâce à l’expertise humaine », rappelle l’expert. Et de citer le Paris-Rio, qui s’est abîmé dans l’Atlantique pour une erreur d’évaluation des pilotes, tandis qu’au contraire, le vol posé en catastrophe sur l’Hudson River était un pari immense. Dans l’aéronautique, on pourrait imaginer une IA qui « aide à prendre de meilleures décisions, avec une complémentarité de compétences », explique encore Jean-Arnaud Causse. Mais, souligne-t-il, les « critères de certification seront une barrière difficilement franchissable, une fois que l’IA sera utilisée, car cela dépendra de l’acceptabilité de telle ou telle nouveauté par les autorités de régulation ».

Des robots capables d’empathie d’ici 15 ans ?

Jean-Claude Heudin, enseignant chercheur en IA, a pu, pour sa part, glisser quelques repères historiques et effectué un travail de définition nécessaire. C’est la Seconde Guerre mondiale qui, globalement, marque les débuts de l’intelligence artificielle. Alan Turing y joue un rôle prépondérant en mettant au point son fameux test, qui met en confrontation à l’aveugle un humain avec un humain et un ordinateur. La question posée est alors « une machine peut-elle penser » ? Avec un programme adéquat, peut-elle simuler l’intelligence humaine ? Une question qui, encore aujourd’hui, cherche sa réponse. Jean-Philippe Desbiolles, responsable France de l’IA Watson/IBM, en a proposé une lecture pertinente mais pleine de questionnements. « Aujourd’hui, nous sommes passés d’un monde de programmation à un monde d’apprentissage », a-t-il expliqué, évoquant les évolutions de la technicité relative à l’IA. « Notre monde est donc beaucoup moins déterministe et beaucoup plus probabiliste ». Par le biais de son expertise, ce dernier dénombre six domaines touchés par l’IA : le langage, la voix, la vision (reconnaissance visuelle), l’empathie, la gestion des savoirs et le raisonnement. Sa réponse ? « Il existe des secteurs dans lesquels l’homme surpasse la machine, mais parfois c’est l’inverse ». Et de citer un exemple de mélanome montré à des dermatologues et à des machines. Chez les dermatologues, 75 % étaient capables de le reconnaître, tandis que chez la machine… la proportion atteignait 95 % ! Une performance médicale qu’on ne peut pas nier. Il parle donc de « complémentarité », mais non de « remplacement », comme pour rassurer les plus sceptiques. Sur la réglementation, la machine aussi semble être en mesure de surpasser l’homme. « Les machines incluent des systèmes cognitifs qui sont capables d’ingérer des jurisprudences et des textes de lois, afin de vérifier que ce qui est fait est conforme », avec l’énorme avantage de posséder une « capacité d’ingestion illimitée », contrairement aux humains. Mais Jean-Philippe Desbiolles cherche à être rationnel. « Dans l’IA, il n’y a rien de magique. Elle est pensée par des hommes et des femmes. Paradoxalement, il n’y a pas plus humain que l’IA », a-t-il lâché, car « de l’utilisation naît la performance ». Alors, l’IA incorpore-t-elle des biais cognitifs ? « Oui, affirme-t-il. Car nécessairement, un groupe de femmes et d’hommes induisent des biais. Il faut donc trouver des moyens pour réduire l’impact de ces biais. Je pense comprendre pourquoi les gens ont si peur de l’IA : elle est leur propre miroir ».

Ces six domaines en sont à des niveaux de maturités différents. Concernant l’empathie, sujet qui interpelle par son caractère profondément humain, « nous n’en sommes qu’aux prémices. Mais d’ici quinze ou vingt ans, qui sait si les robots ne sauront pas exactement comment reconnaître dans notre voix la tristesse ou la joie » et « la machine saura comment adapter son attitude en fonction de la nôtre » ?

La justice en question

Face aux risques, il ne faut pas confondre « la sûreté de fonctionnement, pensée pour minimiser le nombre de cas possibles, et la sécurité d’un système pendant l’exécution d’un système. Ce n’est pas une question de sûreté des équipements, mais une question de comportement », explique Gérard Yahiaoui, PDG de Nexyad, PME de haute technologie. Mais face au danger, il faut prendre des distances avec les raisonnements intuitifs. Si l’on estime que 94 % des accidents de la route sont dus à des erreurs humaines, ce n’est pas en réduisant les erreurs humaines que l’on va réduire les accidents de 94 %, précise-t-il. Car certes, il s’agit de respecter le Code de la route, mais dans certaines situations, être capables aussi de les enfreindre, pour sa propre sécurité ».

Côté justice, la question s’est aussi posée : l’arsenal du droit est-il aujourd’hui suffisant ? C’est l’avocat Philippe Glaser, depuis 25 ans au barreau de Paris, un « homme de contentieux » comme il se définit lui-même, qui avait la tâche d’en parler. Lors de sa présentation, cet associé du cabinet prestigieux Taylor Wessing avait pour tâche de répondre à la question « La responsabilité délictuelle face à l’IA : adaptation des catégories traditionnelles ou création d’un régime de responsabilité propre à l’IA ? ». Comme il l’a exposé, « la problématique se pose spécifiquement avec l’IA autonome sur le plan décisionnel, avec capacité d’apprentissage, et interroge le principe de responsabilité délictuelle. Cela peut aboutir à une situation génératrice d’une faute mais sans que l’homme soit intervenu ». Pour illustrer les façons diverses, voire diamétralement opposées, dont la justice s’empare de la question, Philippe Glaser, cité deux décisions de justice, l’une de la Cour de cassation du 19 juin 2013, qui considère que les résultats issus de Google Suggest ne résultent pas de la volonté humaine, et la seconde du TGI de Paris (23 octobre 2013), qui reconnaît au contraire que ces résultats proviennent bien de la volonté humaine. La difficulté résultant sans doute en la dilution des responsabilités, entre fournisseur, intégrateur, propriétaire de l’objet, concepteur de l’IA, fabriquant de son enveloppe…

Des alternatives juridiques apparaissent, comme le recours de « la responsabilité du fait des choses, ou la responsabilité du produit défectueux, ou la loi du 5 juillet 1985 (sur le droit des victimes des accidents de la circulation, tout à fait d’actualité après la mort de la femme renversée par une voiture autonome Uber) », explique-t-il. Si le Parlement européen a demandé à la Commission d’examiner la possibilité de créer une personnalité juridique propre aux robots, l’Estonie cherche à conférer un statut légal aux robots-agents (distinct de la personnalité juridique et des objets), c’est que l’homme se passionne pour les nouvelles technologies et les méandres de réflexions qui en découlent. Ces problématiques, Philippe Glaser s’y penche régulièrement dans sa pratique professionnelle, puisque l’avocat intervient sur des projets de refonte de systèmes d’information, d’intégration ainsi que des opérations de financement de matériel et solutions informatiques. Ainsi, « il n’était pas possible de ne pas me placer sur le créneau de l’IA », précise-t-il, en complément du colloque. Depuis dix-huit mois, son cabinet accompagne d’ailleurs la startup Predictice (premier outil de justice prédictive français, NDLR). Philippe Glaser y croit dur comme fer : gain de temps énorme, accès à l’exhaustivité des décisions de justice, il est persuadé que bientôt, « les entreprises demanderont si, bien sûr, le cabinet en est doté ! ». Mais il prend soin de préciser que « l’IA n’est pas une aide à la réflexion, c’est un outil d’aide à la décision ». Qui ne peut pas remplacer la pâte et l’expertise humaines, c’est-à-dire l’élaboration d’une stratégie pour les avocats, par exemple. Pour l’instant, Predictice ne s’applique pas au pénal, mais outre-Atlantique, le pas a été franchi. Et Philippe Glaser de prendre l’exemple polémique d’un algorithme utilisé aux États-Unis par le département pénitentiaire, et basé sur un faisceau d’indices pour calculer la récidive des prisonniers : les détenus Noirs ont ainsi moins de chances d’être libérés… Derrière l’IA, les questions éthiques — ici raciales — ne sont jamais loin.

Conscient de la rapidité avec laquelle évolue l’IA, Philippe Glaser n’en reste pas moins confiant : « par le passé, notre droit ancien s’est déjà adapté à de nombreux changements », estime-t-il. Plutôt partisan de considérer notre droit comme suffisant — même s’il s’étonne encore globalement du faible nombre de décisions impliquant l’IA —, Philippe Glaser affirme n’avoir encore « jamais vu une juridiction dire qu’elle n’a pas les règles pour trancher ». Pour autant, s’il n’y a pas urgence à légiférer, il faudra sans doute s’y résoudre d’ici dix à quinze ans. Pour l’instant, proposer un texte unique manquerait de sens : devant la variété des situations, « notamment sur le deep learning, où l’IA devient incontrôlable », un texte uniformisé ne serait pas pertinent.

X