Le Conseil d’État dessine le profil d’une « IA de confiance » dans le service public

Publié le 30/08/2022

Le Conseil d’État a présenté ce mardi 30 août l’étude réalisée à la demande du Premier ministre sur l’Intelligence artificielle dans les services publics. Intitulé « Intelligence artificielle et action publique : construire la confiance, servir la performance », le rapport conseille au gouvernement d’attendre pour légiférer que l’Europe ait sorti son propre texte sur l’IA et de procéder d’ici là par voie de lignes directrices pour libérer les initiatives dans l’administration.

Le Conseil d'État dessine le profil d'une "IA de confiance" dans le service public
(Photo : AdobeStock/Willyam)

En juin 2021, le Premier ministre de l’époque Jean Castex a demandé au Conseil d’État de travailler sur l’utilisation de l’IA dans la sphère publique pour : clarifier les concepts, cartographier les outils existants, étudier l’impact dans différents domaines, esquisser les conditions d’un bon usage.

Définir l’IA est un exercice compliqué. Pour les uns, elle est un fantasme à long terme dont la réalisation est incertaine si l’on entend par « intelligence » quelque chose de proche de l’intelligence humaine, pour d’autres elle est déjà là. Dans sa lettre, le Premier ministre retient la notion de « programmes informatiques dits auto-apprenants ». Entre les deux acceptions actuelles, l’une étroite et très répandue qui ne vise que l’IA connexioniste, c’est-à-dire celle que l’on nourrit d’exemples qui lui permettent de déduire des règles pertinentes (par exemple celle des chats) et la deuxième, incluant les systèmes dont les règles de fonctionnement sont explicitement paramétrées par l’homme (IA symbolique), le Conseil d’État a opté pour cette dernière. C’est aussi celle retenue par Bruxelles.

Des usages multiples

Premier constat, aucun domaine de l’action publique n’échappe à l’IA, depuis l’entretien de la voirie jusqu’à la prévention de l’échec scolaire, en passant par la pseudonymisation des décisions de justice.

Deuxième constat, la France ne vit pas une révolution, mais plutôt un déploiement progressif, souvent encore au stade expérimental.

La cartographie réalisée auprès de l’administration, de l’État, des collectivités territoriales, des hôpitaux, ou encore des autorités administratives indépendantes met en lumière cinq grandes familles d’usages :

* automatisation de tâches répétitives, par exemple classement des mails, pseudonymisation des décisions de justice ;

*amélioration de la relation à l’usager par l’automatisation du langage (chat bot);

*aide à la décision publique : simulation de l’évolution des nappes phréatiques, anticipation des sollicitations des pompiers dans le Doubs, niveau de fréquentation des urgences pour adapter les équipes etc.

*contrôle : détection de la fraude fiscale ;

*robotique : chirurgie, drones…

L’IA remède-miracle à tous les défauts de l’administration ?

Le Conseil d’État en est convaincu, l’IA peut améliorer la qualité du service public tout en optimisant l’emploi des ressources publiques. C’est même, à en croire le rapport,  une sorte de remède miracle à tous les travers de l’administration : la finesse des données peut permettre une réponse particulièrement pertinente, la machine assure une disponibilité permanente et constante dans le temps, elle promet une accélération du temps public, en phase avec celle du temps en général. Elle peut même assurer l’égalité (à condition de corriger ses biais) et répondre à la crise de complexité là où les lois de simplification se sont traduites par un « insuccès notoire ». Enfin, elle promet d’éviter le décrochage technique des administrations et bien sûr de favoriser l’optimisation des moyens matériels des administrations.

De nombreux freins à lever

Mais ce paradis administratif qui se dessine à l’horizon ne sera accessible qu’à condition de lever les freins qui retardent son développement. Le premier est technique, l’IA dépend entièrement du volume et de la qualité des données. Or, elles sont encore souvent insuffisantes à tous égards. Un autre frein réside dans le manque de moyens, financiers, mais pas uniquement. Il faut aussi du temps et des compétences. La France est leader en matière de formation dans ce domaine, mais elle peine à retenir ses talents. Un troisième frein se situe dans l’anticipation des craintes et réticences des usagers. Beaucoup redoutent en effet la déshumanisation et la destruction d’emplois publics. Pour le Conseil d’État la réponse réside dans l’équilibre des usages, il faut se garder de donner le sentiment que c’est un outil de surveillance et donc ne pas surinvestir les usages de contrôle, type traque des fraudeurs fiscaux, mais au contraire en développer les aspects positifs : santé, allocations de prestations sociales etc.

Le Conseil d’État se révèle assez moderne dans son approche. Il estime par exemple qu’il faut libérer la donnée pour permettre son partage, dans le respect évidemment des lois et règlements actuels. De même, il convient de mettre fin à l’interdiction de la décision publique automatisée ; on pourrait ainsi réduire par exemple le délai de délivrance de l’APL  de 8 semaines actuellement à… 48 heures. Seules les décisions positives seraient concernées, les autres continuant de relever de l’intervention humaine.  Pas question en revanche d’accorder la personnalité juridique aux machines. Le Conseil d’État s’ancre sur ce point dans le « possible ». Or il n’aperçoit pas l’intérêt par exemple en termes de responsabilité de condamner une machine, ni la manière dont celle-ci pourrait s’acquitter d’un paiement de dommages-intérêts.

Pas de loi à court terme, mais des lignes directrices pour donner une impulsion

Évidemment, tout ceci doit s’inscrire dans le cadre d’une régulation. Rédiger une loi ? Le  Conseil d’État lutte suffisamment contre l’inflation législative pour ne pas céder à cette tentation,  ce d’autant plus qu’il existe déjà à ses yeux de solides garde-fous, à commencer par le RGPD. Surtout, Bruxelles prépare son propre texte sur l’IA, inutile donc de faire doublon. En attendant ce texte, appelé à devenir sans doute une référence mondiale, la bonne solution en France consisterait pour le gouvernement à proposer un cadre d’action composé de lignes directrices reprenant les propositions du rapport. Il servirait à la fois de méthode et d’impulsion pour libérer les nombreux projets qui dorment actuellement dans des cartons. Ce qui ressortira de l’expérience de terrain lors de la transposition de la future réglementation européenne d’ici quelques années pourra alors guider la rédaction des textes de transposition.

Sept points sensibles devront être pris en considération lors du développement d’une solution d’IA dans l’administration :

*Primauté humaine : l’IA doit être au service des humains, lesquels doivent conserver la main sur elle et répondre des dommages qu’elle occasionne ;

*Performance : en clair, il faut que ça fonctionne ;

*Équité : L’IA doit assurer une non-discrimination ce qui suppose notamment d’en corriger les biais cachés

*Transparence : il faut pouvoir accéder aux règles de fonctionnement du système ;

*Sûreté : garantir contre les risques liés aux cyberattaques ;

*Soutenabilité environnementale : les systèmes sont très gourmands en électricité, il faut donc prendre en compte cette donnée ;

*Autonomie stratégique.

Tout ceci enfin doit être surveillé par une autorité de régulation. Le Conseil d’État écarte l’hypothèse de la création d’une nouvelle autorité, la CNIL est parfaitement compétente pour jouer ce rôle, à condition qu’on augmente ses moyens.

On sait le chef de l’État convaincu de l’utilité des nouvelles technologies. Il y a fort à parier que les promesses de performances dégagées par le rapport et l’ambition de libérer les énergies pour l’instant retenues dans les administrations le séduiront. Reste à savoir si l’IA  a les moyens de tenir ses promesses…

L’échec emblématique de DataJust

Il s’en est fallu de peu pour que la réparation du dommage corporel soit confiée en France à un algorithme ! En mars 2020, soit lors du premier confinement, la chancellerie publie un décret  autorisant la conception d’une intelligence artificielle ayant pour objet d’établir un référentiel d’indemnisation des préjudices corporels, sur la base des décisions de jurisprudence. Immédiatement, les professionnels pointent les nombreux biais, difficultés et obstacles qu’ils aperçoivent dans la démarche : traitement de données sensibles, sous-estimation de la complexité de la matière, risque d’industrialisation de ce contentieux, exploitation de la vulnérabilité des victimes par les assureurs…Le projet est abandonné deux ans plus tard.

Le Conseil d’État avait approuvé le décret puis, saisi au contentieux, il avait confirmé la licéité d’un tel traitement de données à caractère personnel au regard du RGPD (CE, 30 décembre 2021, Sté Gerbi Avocat Victimes et préjudices et autres, n° 440376, 440976, 442327, 442361, 442935).

Mais il note dans son étude s’agissant non plus de la légalité mais de la pertinence de l’outil :  « La complexité technique du projet et la nécessité de ressources conséquentes pour atteindre un niveau de performance acceptable, conjuguées aux importantes réserves suscitées par une partie importante de la communauté juridique, ont convaincu la Chancellerie de l’abandonner au terme de deux ans d’expérimentation. Cette expérience est sans doute une utile leçon dont toutes les composantes (marchés, compétences, objectifs, pilotage…) devraient être examinées, non dans un esprit de recherche de responsables ou de stigmatisation de l’échec, mais pour mieux identifier les facteurs de succès et les points de vigilance, et y sensibiliser l’ensemble des administrations ».

Pour comprendre les réticences des professionnels, lire nos articles : Qui a peur du décret DataJust ? et notre entretien avec Me Aurélie Coviaux DataJust : « Plutôt que de faire de la justice prédictive, il faut engager une démarche d’indexation et de tri des décisions »

X