Pour une charte constitutionnelle de la robotique et des nouvelles technologies

Publié le 06/10/2017

Face à une société et un État fonctionnant de plus en plus par la technologie et la robotique, au risque de réduire l’être humain à un simple rouage de la société, ne faut-il pas envisager un usage raisonnable et durable de la science et de la technologie ? Une charte constitutionnelle de la robotique et des nouvelles technologies, quatrième dimension des droits de l’être humain, établirait des orientations tant pour préserver l’origine naturelle de l’être humain que l’essence de l’État de droit.

Introduction : Science et technologie, la quatrième dimension des droits de l’être humain

En tant qu’être vivant naturel, l’être humain individuel dispose naturellement de droits et devoirs naturels qui règlent, au moyen de normes juridiques constitutionnelles1, ses relations responsables avec la société et la Nature. Ainsi, trois dimensions constitutionnelles2 structurent l’environnement juridique du statut politique, social et naturel de l’individu. La première, formée par la déclaration des droits de l’Homme et du citoyen du 26 août 1789, règle les relations entre l’État et le citoyen. La seconde dimension, constituée par le préambule de la constitution de 1946, guide les relations entre l’être humain et la vie en société. La troisième, avec la charte de l’environnement de 2005, établit la responsabilité de l’être humain par rapport à l’environnement : « patrimoine commun de l’humanité »3.

La quatrième dimension proposée ici, découle de la troisième, dans le sens où la société humaine, par le recours à la science et la technologie4 dont la robotique, ne doit attenter ni à la nature naturelle de l’être humain en tant que partie intégrante de la Nature, ni à l’État de droit. Plus précisément, l’usage des nouvelles technologies, doit éviter une dénaturation de l’être humain et que l’État technologiquement augmenté5 ne restaure une emprise absolue sur l’individu devenant un objet standardisé6, par des moyens de contrôle extrêmement étroits pour éviter qu’il ne perturbe l’ordre social sécurisé7 d’une « société machine »8. La prise de conscience9 de cette réalité en cours doit être contrée par une charte constitutionnelle.

Le but de celle-ci viserait à penser un usage raisonnable et durable10 de la science et des nouvelles technologies pour que les choix politiques en la matière ne compromettent pas l’État de droit, la démocratie, et l’origine naturelle de l’être humain pour les générations futures. Certes le Code civil11, la loi Informatique et libertés de 197812 fixent déjà des limites. Cependant face à ces sources éparpillées, seul un texte constitutionnel posant les principes essentiels à un usage raisonnable et humaniste des technologies et de la robotique garantira cet usage.

On vise ici l’humanisme au sens de la déclaration des droits de l’Homme et du citoyen du 26 août 1789, du second humanisme du philosophe Luc Ferry13 et de la civilisation européenne14. C’est dans ce cadre philosophique et sous la forme d’une charte constitutionnelle15 que l’on peut, que l’on doit envisager le développement d’une robotique raisonnable et respectueuse de l’être humain et de sa société16.

Le robot, par son autonomie17, dispose de la capacité d’analyser une situation, de décider et d’exécuter ce qui implique la coopération avec l’être humain et induit de penser pour chacun la bonne articulation, la subsidiarité de leurs pouvoirs, de leurs compétences et de leurs actions entre eux18. Dès lors, la présence croissante des robots oblige à repenser la conception de la société pour effectuer des choix réfléchis, au lieu de se retrouver dans une situation impensée sans remise à zéro possible19. Une charte des nouvelles technologies et de la robotique répondra non seulement aux enjeux de société mais posera également les principes fondamentaux liés aux problèmes juridiques20 résultant de l’autonomie robotique. Il faut donc envisager des orientations21 pour une autorité administrative indépendante de la robotique et dans les divers domaines de la robotique.

I – Orientations pour une autorité administrative indépendante de la robotique

Qu’ils soient militaires, sécuritaires, ou civils, le bon usage des robots sera garanti par la présence d’une autorité administrative indépendante22. C’est donc l’indépendance de cette institution et de sa présidence, ses missions et ses compétences que l’on envisagera23.

L’indépendance d’une telle autorité est indispensable pour garantir l’autorité de ses décisions, sa neutralité et son impartialité. L’indépendance à l’égard des pouvoirs politiques, économiques et administratifs proviendra de manière classique du statut de cette autorité et de celui de ses membres. Ainsi le (la) président(e) de cette autorité administrative indépendante, issu du pouvoir judiciaire administratif ou judiciaire, serait nommé(e) par un comité de représentants du conseil supérieur de la magistrature et du Conseil d’État. Elle serait composée de membres issus du parlement, de la société civile, de citoyens tirés au sort sur les listes électorales et de personnalités particulièrement compétentes dans les domaines mécanique, informatique et électronique, ainsi que du droit.

Cette autorité exercerait deux missions principales et simultanées. Il s’agirait de la coordination avec les autres autorités administratives indépendantes, en raison des équipements et missions du robot24. Elle réglerait tous les aspects spécifiques à la robotique, notamment en matière de libertés publiques et de déontologie de l’usage sécuritaire, militaire, technique et ou simplement domestique du robot. Elle interviendrait ainsi :

  • dans le contrôle des certifications attribuées aux entreprises chargées d’expertiser les logiciels ;

  • dans l’assurance d’un droit d’accès aux citoyens, dans le contrôle des entreprises fabricant les robots et les utilisateurs institutionnels civils ou militaires pour garantir le respect des procédures dans ce domaine ;

  • dans l’immatriculation des robots (notamment des drones) ;

  • dans la détermination des normes robotiques, en établissant notamment établirait qui le pilote, la formation de cette personne, ses compétences techniques et juridiques, sa place dans la hiérarchie et son statut ou non en tant qu’officier de police judiciaire (pour les robots sécuritaires) ;

  • dans les certifications, du classement des robots dans diverses catégories ;

  • dans la vérification de l’usage conforme au droit et à ses caractéristiques techniques et disposerait d’une compétence technique d’expertise dès lors que l’usage du robot causerait de par son fonctionnement un dommage soit à un tiers, soit à la personne civile qui a fait l’objet d’un traitement robotisé. Elle serait à même de par sa nature de service public d’offrir une expertise neutre, objective à toutes les parties d’un litige où un robot serait en cause.

Elle saisirait enfin la justice de toute infraction et disposerait d’un pouvoir réglementaire mais aussi de sanctions administratives. Elle délivrerait des avis sur tout sujet en lien avec la robotique, soit sur consultation volontaire ou obligatoire du gouvernement, de parlementaires ou d’autres élus, de magistrats, voire d’entreprises privées en lien avec la conception des robots et leur distribution commerciale. Ces avis seraient rendus soit intégralement publics, soit partiellement dès lors qu’un intérêt national serait en jeu. Cette autorité assurerait aussi une mission d’expertise. Elle pourrait être saisie par tout citoyen, notamment quant à l’usage du robot et les questions de responsabilité.

II – Orientations quant à l’usage et la responsabilité

Il s’agit d’abord de conditionner l’usage des robots. On poserait comme principes :

  • que l’usage du robot dans la société et au niveau individuel doit être subsidiaire et proportionnel au regard du but que l’on souhaite atteindre. Donc à quel stade procédural et pour quelle tâche matérielle faire intervenir le robot ? Ainsi le robot devrait être toujours identifiable comme robot et non confondu avec un animal existant ou un être humain. On affirmerait que l’on peut toujours préférer recourir à un être humain ou des services administratifs plutôt qu’à un robot ou un site internet ;

  • qu’il s’ensuit que le robot, en tant que machine doit toujours pouvoir, à tout moment et en tout lieu, être désactivé, par un être humain, par quelque moyen que ce soit, dès lors que ce robot dysfonctionne ;

  • du droit de disposer d’une conformité technique pour certifier la non-dangerosité du robot et donc « établir le droit à connaître : le fabricant, le propriétaire, les caractéristiques techniques, et les logiciels pour en vérifier le fonctionnement ».

Viendraient ensuite des principes liés à la détermination de la responsabilité robotique avec :

  • la nécessité de distinguer entre l’utilisateur gardien matériel du robot et le gardien immatériel qui maîtrise l’autonomie du robot, afin d’établir le partage de responsabilité entre les deux gardiens, en indiquant que le gardien immatériel est constitué par l’ensemble des personnes physiques ou morales qui, par l’intermédiaire des moyens matériels et immatériels, maîtrise l’autonomie du robot lors de son fonctionnement, et qui se substitue de fait à l’utilisateur ;

  • le principe de la présomption de responsabilité du gardien de l’autonomie immatérielle du robot avec pour conséquence, le principe d’une inversion proportionnelle de responsabilité ; plus le robot est autonome, moins son gardien matériel en est responsable et plus son gardien immatériel l’est ;

  • l’inscription du droit à apporter la preuve contraire par tous moyens à celle établie par le robot ;

  • enfin, l’établissement du droit d’accéder aux informations personnelles enregistrées par le robot pour une quelconque raison, pour garantir les droits de la défense, lors d’un contentieux, ce qui nécessite de poser le principe de la conservation des données enregistrées par le robot25, dans des mémoires informatiques et papier sous l’autorité d’une autorité administrative indépendante, durant un temps au moins égal aux prescriptions des procédures pénales26. Ce droit est nécessaire pour établir le partage de responsabilité. Des principes, matériels notamment, pour garantir les libertés publiques interviendraient.

III – Orientations pour des principes matériels et les libertés

On s’intéressera ici aux normes les plus fondamentales. Là aussi on distinguera, entre celles directement liées au fonctionnement du robot, et celles visant à éviter qu’il ne commette un acte qui engagerait la responsabilité de son fabricant, de son propriétaire ou de son utilisateur. Il faudrait implanter dans le robot, des normes fondamentales et procédurales.

Viennent ensuite les procédures. Nécessaires pour garantir le respect des libertés publiques, elles interviendraient dans le fonctionnement interne du robot en tant que mécanisme de sécurité pour stopper un dysfonctionnement. Le robot n’est-il pas au final un outil périphérique, enregistrant des données et donc soumis à la loi Informatique et libertés ?

Enfin, envisager des normes liées à la conception et l’usage des robots est nécessaire, mais doit aussi participer à une vision plus large de l’usage des technologies, plus particulièrement en ce qui concerne les relations entre l’État et le citoyen. Dès lors, d’autres principes pourraient être reconnus :

  • reconnaître constitutionnellement, si ce n’est par la jurisprudence, un droit général, individuel et collectif à l’anonymat au domicile et dans l’espace public, pour garantir l’exercice des libertés publiques. Il faut établir ainsi une « opacité du citoyen » pour résister au traçage et à la surveillance généralisée, pour reprendre ici le propos d’Alex Türk qui plaide aussi pour un droit à l’anonymat de la personne27 ;

  • affirmer constitutionnellement le droit à connaître les informations enregistrées sur soi ;

  • disposer du droit constitutionnel à modifier, supprimer28 ses données personnelles, si elles sont erronées, ou préjudiciables ;

  • le droit pour le citoyen à recourir aux services d’un être humain, plutôt qu’une machine lorsque ses droits sont en cause ;

  • affirmer que seuls des êtres humains exercent la démocratie et limiter en ce domaine le recours aux machines à des opérations purement matérielles et non pour des décisions engageant la situation juridique des personnes ;

  • apprécier le principe de proportionnalité tant au niveau constitutionnel que législatif ou réglementaire. Il s’agit de considérer la proportionnalité d’un système juridique de surveillance et de contrôle de la population par rapport aux libertés publiques et non pas juste se limiter à apprécier la proportionnalité d’une seule loi29 par rapport à la constitution, et qui contribue à ce système, et ce, pour dire que le système mis en place, est inconstitutionnel ou contraire à un traité, ou que la norme mise en cause, par sa contribution fait basculer le système juridique, dans lequel elle s’insère, dans le champ de la disproportion attentatoire à la démocratie et l’État de droit, notamment lors du recours à des robots militaires et sécuritaires.

IV – Orientations quant aux robots militaires et sécuritaires

On en vient au régime juridique des robots militaires30 et sécuritaire31. Ainsi :

  • pour un robot militaire, s’imposerait le respect des normes du droit international relatives au droit des conflits armés, au droit humanitaire, aux droits de l’Homme et pourquoi pas à des normes morales ou éthiques, telles que le respect des cérémonies religieuses de l’ennemi. Sur ce point, le manuel de droit des conflits armés du ministère de la Défense nationale insiste sur l’existence de règles communes aux différentes conventions de ce droit. Ainsi, les principes d’humanité32, de discrimination33, et de proportionnalité34 devraient impérativement être respectés par le robot ;

  • l’usage à bon escient du robot impliquerait qu’une action contraire au droit, génère son blocage. Ces règles interviendraient autant pour empêcher une programmation illégale que pour, interdire un tir sur une personne civile, un prisonnier, ou pour éviter un dommage disproportionné ;

  • le robot sécuritaire ne devrait, par principe, être doté d’aucune arme, même soi-disant non mortelle. Seuls, un agent de police nationale ou un gendarme, devraient en avoir l’autorisation selon les Codes pénal et de la sécurité intérieure ou de la défense ;

  • l’usage du robot sécuritaire devrait toujours se faire sous la responsabilité d’une personne humaine, compétente, et dans le seul cadre des procédures légales d’enquêtes. La chaîne de commandement devrait être identifiable, accessible, vérifiable et contrôlable en permanence par toute personne ;

  • une personne référente serait désignée, au sein des services qui usent des robots, pour tout ce qui concerne l’usage des robots, en liaison avec une autorité administrative indépendante de la robotique ;

  • prévoir une déontologie de l’usage du robot sécuritaire conforme aux libertés publiques par les forces de l’ordre. Cette déontologie faisant l’objet d’un texte spécial, et mis en référence dans le Code de déontologie des polices nationale et municipale et de la gendarmerie ;

  • introduire dans les Codes de la défense nationale, de la sécurité intérieure, et tout autre code si nécessaire, les cas et les conditions où il est possible d’utiliser un robot sécuritaire.

Au final, la robotique touche autant l’individu que la société et n’est donc pas dissociable d’une conception de la vie en société qu’il revient aux citoyens de choisir. La robotique n’est pas neutre et doit être replacée dans le cadre d’un usage humaniste des nouvelles technologies, conformément à la tradition humaniste européenne. Le droit de la robotique est aussi un enjeu de sources.

Conclusion : L’enjeu des sources du droit de la robotique

Intégrer une telle charte dans le préambule de la Constitution de la Ve République garantira la préservation de l’origine naturelle de l’être humain et de l’État de droit. Cette garantie découlera aussi de la permanence et de l’intangibilité des textes du préambule35, distincte de la « Constitution fonctionnelle »36 changeant elle au gré des circonstances politiques. Il faut encore que cette garantie provienne des normes internationales dans le domaine de la robotique37.

Le cœur de ce sujet réside dans les sources du droit de la robotique. Au-delà de la distinction entre des sources internationales, européennes et nationales, et bien sûr de la hiérarchie des normes entre le droit international et le droit national, il convient aussi de distinguer entre la nature de ces normes ; toute norme n’est pas juridique. Ainsi sous le couvert de « robot-éthique », on rencontre aussi bien des normes morales que relevant de la loi. Pour les roboticiens, l’éthique consiste à trouver la décision la moins préjudiciable entre deux solutions qui le sont38. Il y a là une décision prise à partir de considérations éthiques au moment de la conception de l’intelligence artificielle du robot engageant la responsabilité de ses concepteurs. Ces options morales et éthiques découleront soit d’arguments philosophiques, religieux, économiques, sociaux soit de la loi qui les formulera de manière juridique. Cependant, ces considérations sont à distinguer des normes juridiques qui établiront le régime de l’immatriculation, de la certification du robot, des conditions de son utilisation ou encore d’une autorité administrative indépendante de la robotique.

Pour conclure, on s’est intéressé ici à ce que pourrait être une charte constitutionnelle de la robotique. Mais une telle charte devrait aussi concerner les nouvelles technologies qui touchent à la conception de l’avenir de la société humaine et de la nature.

Notes de bas de pages

  • 1.
    Ces normes sont des déclarations, chartes, principes de droits, de libertés fondamentales.
  • 2.
    On se réfère ici au préambule de la constitution du 4 octobre 1958 qui renvoie à la déclaration des droits de l’Homme et du citoyen, au préambule de la constitution de 1946 et à la charte de l’environnement.
  • 3.
    Préambule de la constitution du 4 octobre 1958, charte de l’environnement, loi constitutionnelle n° 2005-205 du 1er mars 2005, troisième considérant, qui considère que l’environnement est un tel patrimoine.
  • 4.
    Par exemple, on pense à l’informatique, les biotechnologies, la robotique, la domotique et à des courants de pensée comme le transhumanisme, l’homme augmenté, la vidéosurveillance, etc., qui bousculent les conceptions de la nature humaine, de la société ou encore de l’État et traduisent une société humaine en pleine mutation.
  • 5.
    Par similitude à l’homme augmenté et au transhumanisme, on postule que l’État recourant aux nouvelles technologies est aussi augmenté : Ferry L., La révolution transhumaniste, 2016, Plon.
  • 6.
    Le recours aux nouvelles technologies par l’État nécessite que l’individu ne soit plus qu’un élément : un objet de plus en plus standardisé pour correspondre au fonctionnement de l’État technologiquement augmenté. L’animalité de l’être humain ne doit pas perturber une société scientifiquement gérée.
  • 7.
    L’être humain, parce qu’humain, est le grain de sable dans la mécanique d’une société, d’un État qui utilise les machines pour augmenter sa rentabilité économique et juridique par une application, la moins humaine possible, de la norme à l’individu. La procédure sanctionnant les excès de vitesse constatés par un radar en est un indicateur ; c’est également le cas pour les constats effectués par l’intermédiaire d’une caméra de vidéosurveillance ou encore la délivrance ou non de l’argent demandé à un distributeur automatique de billets.
  • 8.
    Plus la société recourt aux nouvelles technologies, plus le citoyen en redevient le sujet, l’objet dont il n’est que le rouage ordonné ne devant pas dérailler.
  • 9.
    Par ex. : Cardon D., À quoi rêvent les algorithmes, 2015, Seuil ; Abitboul S. et Dowek G., Le temps des algorithmes, 2017, Le Pommier, Essais, 2017 ; Duguain M. et Labbé C., L’homme nu, 2016, Laffont-Plon ; Lorenzi J.-H. et Berrebi M., L’avenir de notre liberté, 2017, Eyrolles ; Ganascia J.-G., Le mythe de la singularité, 2017, Seuil, Science ouverte.
  • 10.
    Au sens du septième considérant de la charte de l’environnement de 2005.
  • 11.
    Code civil, Livre 1er et Titre 1er : « Des droits civils » et de « L’assistance à la procréation médicale ». V. égal. C. civ., art. 311-19 à 311-20.
  • 12.
    L. n° 78-17, 6 janv. 1978, relative à l’informatique, aux fichiers et aux libertés.
  • 13.
    Ferry L., La révolution de l’amour, pour une spiritualité laïque, 2010, Plon.
  • 14.
    On pense ici au préambule du traité sur l’Union européenne, à l’article 2 du Tribunal de l’Union européenne sur les valeurs de l’Union, à la charte des droits fondamentaux de l’Union européenne, notamment les articles 3, 8 et 13, et à la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales.
  • 15.
    Il faut envisager le niveau constitutionnel pour garantir l’application et le respect des principes qu’elle posera.
  • 16.
    On indiquera les quatre lois de la robotique énoncées par Isaac Asimov ; la volonté de la Corée du sud d’établir un tel code, par exemple.
  • 17.
    Le marteau, la scie, le fusil, ne pensaient pas. Aujourd’hui, avec l’autonomie, les outils deviennent des partenaires à part entière de l’être humain qui les utilise, ce qui nécessite d’aménager juridiquement leurs relations. Le droit aménagé pour un être humain maître de l’outil est-il encore adapté pour un outil dont il n’est plus le seul maître, ou plus du tout le maître ?
  • 18.
    Déterminer qui fait quoi, à quel moment, dans quelle circonstance et qui, au final, a autorité décisionnelle définitive sur l’autre ? La réponse découlera d’un choix établi au moment de la conception du robot.
  • 19.
    Le recours massif à des robots dans nombre d’activités professionnelles y compris celles plus intellectuelles (avocats, enseignants, ingénieurs…) implique de nouvelles manières de travailler, et de s’interroger sur la pertinence de la valeur travail dans la société. Comment concevoir une société où le travail humain n’est plus primordial pour vivre au quotidien (on a envie de dire enfin !), v. entre autres : Lorenzi J.-H. et Berrebi M., L’avenir de notre liberté, 2017, Eyrolles, p. 256.
  • 20.
    On pense à la nature juridique du robot, comment appréhender la responsabilité lors d’un dommage causé par le robot, peut-il être un véhicule, peut-il effectuer un contrôle d’identité, tirer sur une cible, peut-il décider seul, quelle est la portée juridique de la décision qu’il prendra, les données enregistrées vaudront-elles preuves ; ce sont là quelques exemples.
  • 21.
    On ne peut prétendre ici présenter les articles d’une telle charte ; c’est là le travail d’une commission.
  • 22.
    Le principe d’une telle autorité devrait être posé dans la charte avec les principes directeurs de sa conception.
  • 23.
    Tous détails qui relèveraient de la loi.
  • 24.
    On pensera ici à la relation avec la Cnil en raison des données enregistrées par le robot ou les atteintes possibles à l’exercice des libertés publiques par ces machines. Également le Défenseur des droits en ce qui concerne le respect de la déontologie par les forces de l’ordre policières et militaires : quel sera le bon usage déontologique des robots sécuritaires et militaires ? Sans oublier la CADA pour déterminer si un document enregistré par un robot est administratif ou non et donc accessible ou non, ni même les commissions consultatives du secret de la défense nationale et de contrôle des interceptions de sécurité.
  • 25.
    Une « boîte noire » enregistrerait les actions du robot liées à la détermination et à l’exécution de sa mission par lui et en coopération avec son partenaire humain s’il s’en trouve un. Ces données seraient conservées dans la « boîte noire » et sur un support extérieur selon un temps assez long et différencié.
  • 26.
    Les forces de l’ordre accéderaient à ces données sous le contrôle du juge judiciaire et elles ne pourraient opposer que l’appartenance du robot à l’armée ou à la police empêche l’accès aux données, dans la limite du secret de la défense nationale.
  • 27.
    Türk A., La vie privée en péril, des citoyens sous contrôle, 2011, Odile Jacob, p. 28 et 262.
  • 28.
    On pense au droit à l’oubli, CJUE, 13 mai 2014 ; charte du droit à l’oubli 2010 en France, qui en sont des exemples.
  • 29.
    La jurisprudence examine « au coup par coup », la légalité constitutionnelle, conventionnelle d’une loi, d’un acte réglementaire. Ainsi, si une loi peut être conforme à la constitution, le système juridique dans lequel elle s’insère est-il, lui, conforme à la constitution ?
  • 30.
    On vise ici les robots utilisés par l’armée dans le cadre d’une opération militaire, et non d’ordre public.
  • 31.
    On vise ici les robots utilisés par les forces de l’ordre dans le but de la préservation de l’ordre public.
  • 32.
    Éviter des maux superflus dans le recours à la force. Le recours aux robots devrait donc respecter ce principe.
  • 33.
    Il consiste à distinguer entre les objectifs militaires, des biens civils et les populations civiles.
  • 34.
    Vise à éviter de lancer une attaque qui porterait atteinte aux civils, à leurs biens, qui seraient excessifs par rapport à l’avantage que procurerait l’attaque militaire.
  • 35.
    On vise ici à séparer le préambule de la constitution de la Ve République pour en faire un acte juridique à part entière : la « constitution fondamentale » obéissant à des règles de révision strictes et propres pour en garantir une quasi-intangibilité à l’égard des changements politiques. Le préambule agirait comme le code génétique de toute constitution qui interviendrait pour organiser et exercer les pouvoirs.
  • 36.
    Ici, cette constitution serait dans la Ve République, constituée des articles 1 à 89, qui peuvent être révisés ou bien refondés dans le cadre d’une nouvelle constitution.
  • 37.
    Les enjeux de la robotique sont internationaux et seules des normes internationales en ce domaine contribueront à un droit international commun de la robotique, harmonisant les droits nationaux.
  • 38.
    Par exemple, entre sauver de la noyade un enfant et un adulte, lequel doit décider de choisir le robot ? (scène tirée du film d’Alex Proyas, I, Robot, datant de 2004).
X