Moratoire sur l’IA : faut-il vraiment le signer ?

Publié le 30/03/2023

Dans une lettre ouverte parue le 28 mars, un millier d’experts dont Elon Musk, le patron de Tesla et de Twitter, demandent la suspension pour six mois des recherches sur l’IA au nom des dangers qu’elle représente pour l’humanité.  Attention ! met en garde Yannick Meneceur, magistrat en disponibilité et maître de conférences associé à l’Université de Strasbourg. Cette vertueuse inquiétude pourrait bien avoir des ressorts inavoués. 

Moratoire sur l'IA : faut-il vraiment le signer ?
(Photo : AdobeStock/Willyam)

Plus de 1000 chercheurs, industriels, intellectuels, représentants de la société civile et simples citoyens viennent de se mobiliser pour dénoncer le risque du déploiement de larges modèles « d’IA » comme GPT d’OpenAI. Un moratoire d’au moins 6 mois est réclamé dans leur lettre ouverte, sur le modèle de ce qui avait été réalisé dans d’autres domaines technologiques comme le clonage humain, afin de prendre le temps pour concevoir des systèmes mieux contrôlés et encadrés[1].

Les réactions n’ont pas manqué à la suite de cet appel, les signatures conjointes d’Elon Musk, Stuart Russel, Yoshua Bengio, Steve Wozniak, Yuval Noah Harari sous l’égide du Future of Life Institute ayant donné un écho particulier à cette initiative. Qu’en penser ?

L’IA, une « Abjection civilisationnelle »

Éric Sadin, essayiste et philosophe connu pour ses positions tranchées sur « l’IA », est direct : pour lui, le grotesque de ces personnes n’aurait aucune limite. Il lui semble urgent d’interdire « cette abjection civilisationnelle qui ne vise exclusivement qu’à générer d’immenses profits »[2]. Philippe Besse, chercheur émérite de l’INSA, estime pour sa part que si des arguments paraissent abusifs le fond serait juste au vu du gaspillage de ressources et de l’absence de contrôle démocratique[3]. D’autres, dans un registre différent, estiment impossible de ralentir le rythme de la recherche ou interdire un nombre important d’applications de « l’IA ».

Difficile de s’y retrouver pour les profanes dans des débats plus que jamais polarisés.

L’humain bientôt obsolète selon le FLI

Tâchons d’abord de situer d’où parlent les principaux signataires : du Future of Life Institute (FLI), qui s’était illustré avec la publication des « 23 principes d’Asilomar », déjà censés encadrer le développement de « l’IA » par des principes non contraignants[4]. L’objectif de l’Institut est de développer des visions optimistes de l’avenir et de prévenir des risques liés, notamment, venant des « IA fortes » (entendre comparables ou surpassant les humains). Cet institut est aussi présenté comme véhicule de la philosophie, controversée, du « long-termisme », qui consiste à imaginer la portée des actions humaines dans un futur lointain et d’en atténuer les risques maintenant, quitte à sacrifier le présent. Quelques figures de ce mouvement prônent également l’accumulation de richesses pour faire infléchir des politiques publiques[5]. Il n’est donc pas surprenant de trouver aujourd’hui cet appel sous l’égide du FLI, puisqu’il fait écho à une ligne forgée depuis des années : « l’IA » aurait des potentialités telles qu’elle pourrait surpasser et rendre obsolète l’humain. Mais il ne faudrait surtout pas y renoncer car les potentialités seraient extraordinaires.

L’objectif inavoué : renforcer la croyance dans les pouvoirs de l’IA

Les acteurs étant situés, l’on mesure mieux ce qu’il y a de choquant dans cette lettre ouverte : l’apparente prise de recul réclamant l’intervention d’une réglementation stricte n’est en fait qu’une occasion de renforcer cette représentation totalement erronée, anthropomorphiste et solutionniste que les générations actuelles « d’IA » auraient des capacités telles que notre société serait potentiellement en danger. Pour le reformuler, cet appel renforce avec vigueur l’idée (très utile pour le business de « l’IA ») que ces algorithmes auraient des performances exponentielles, toujours améliorables avec plus de données et de complexification des systèmes.

Or non. Ce qui met en danger notre société, c’est bien la croyance que des approches statistiques sophistiquées seraient en mesure d’imiter, on ne sait par quel miracle naturaliste, le fonctionnement du cerveau humain. Ce qui met en danger notre société, c’est de croire qu’un perroquet recrachant une synthèse statistique d’un corpus reproduit des « étincelles d’intelligence[6] » ou que le machine learning représente les mêmes enjeux que la biomédecine. Nous ne sommes pas en train de jouer ici avec des organoïdes et des neurones humains. Ce qui met concrètement en danger notre société, c’est une vision simplement technicienne du progrès.

Pompiers pyromanes

Cette lettre ouverte choque aussi pour un autre motif : l’inévitable sentiment que l’on se trouve devant des pompiers pyromanes. Après avoir passé des années à défendre des approches « éthiques » pour différer des réglementations contraignantes, et ce dans l’intérêt de leurs affaires, voici que les mêmes acteurs se trouvent maintenant à vouloir éteindre le feu qu’ils ont allumé en appelant les régulateurs à l’aide.

La sincérité de leurs propos serait donc bien plus évidente si certains de ces signataires ne se trouvaient pas aujourd’hui eux-mêmes « disruptés » par OpenAI. Ces derniers ont su, avec audace et une belle ingénierie, tirer parti d’une image relativement neutre pour s’avancer là où Meta, Google et autres ne pouvaient que s’attirer les foudres de la communauté en cas de moindre écart. De fait, les « hallucinations » de ChatGPT ont été tolérées, alors même que l’on se trouve vraisemblablement face à une limite intrinsèque de l’approche.

Alors, voilà peut-être une seule et bonne raison de ne pas suivre ce qui est (aussi) un coup marketing pour chercher à ralentir le cycle de production d’OpenAI. Si une réglementation contraignante est bien à élaborer, comme c’est le cas en Europe, c’est exclusivement sur des fondements neutres et inaliénables : à savoir les droits humains, les principes démocratiques et l’État de droit. Et non pas pour alimenter les fantasmes d’une société qui serait plus prospère avec des algorithmes à tous les étages de notre société.

Enfin pas tous les algorithmes… seulement ceux qui ne sont pas vendus par la concurrence.

[1] Pause Giant AI Experiments : An Open Letter, consulté le 29 mars 2023.

[2] Publication sur Twitter du 29 mars 2023, consulté le 29 mars 2023.

[3] Publication sur LinkedIn du 29 mars 2023, consulté le 29 mars 2023.

[4] Accessible sur : https://futureoflife.org/open-letter/ai-principles/, consulté le 29 mars 2023

[5] C. Xiang, The Open Letter to Stop ‘Dangerous’ AI Race Is a Huge Mess, Vice, 29 mars 2023, consulté le 30 mars 2023

[6] S. Bubeck et al., Sparks of Artificial General Intelligence : Early experiments with GPT-4, arXiv, 22 mars 2023, consulté le 23 mars 2023

Plan
X