IA : les doutes tardifs des pères de l’apprentissage profond

Publié le 08/05/2023

Mais que se passe-t-il au sein de l’élite du monde des réseaux de neurones ? Les trois récipiendaires du prix Turing 2018, Yann LeCun, Yoshua Bengio et Geoffrey Hinton, médiatisés pour avoir été les principaux acteurs de la résurgence de « l’IA » au début des années 2010 [1], divergent ces dernières semaines sur la manière d’appréhender impact sociétal de leurs travaux, entre pause ou accélération. Mais ils semblent s’entendre sur une action urgente : la nécessité de réguler. Comment interpréter les doutes tardifs des pères de l’apprentissage profond ?

Intelligence artificielle
xa3/AdobeStock

Pause ou accélération ?

Bref résumé de ce début d’année 2023.

En mars, Yoshua Bengio a été le premier à exprimer publiquement des craintes, en étant parmi les initiateurs de ce retentissant appel à un moratoire des développements de « l’IA » durant 6 mois, signé notamment par Elon Musk et Steve Wozniak [2]. En réaction, Yann LeCun, employé chez Meta/Facebook depuis 2013, estimait, lors d’un entretien au journal « Le Monde », impossible de mettre en œuvre une telle pause et soutenait que ralentir d’une telle manière la recherche s’apparenterait même à un « nouvel obscurantisme [3] ». Il appelait, bien au contraire, à accélérer les recherches pour améliorer la fiabilité des systèmes et conduire à un « nouveau siècle des Lumières ». Comme pour chercher à trancher la controverse naissante entre ses amis, Geoffrey Hinton annonçait le 1er mai quitter ses fonctions chez Google afin de pouvoir partager librement ses inquiétudes sur les dommages que cette technologie pourrait causer au monde [4]. Il estime que « l’information, l’éducation, la société et l’humanité tout entière sont en danger » et ajoute : « ces technologies vont nous dépasser en termes de finesse du raisonnement, j’ai pensé qu’on avait le temps, que ce serait pour dans 30 ou 50 ans, mais je n’y crois plus [5] ». À la manière d’un Oppenheimer devenu pacifiste, il dit maintenant se consoler en se disant que s’il ne l’avait pas réalisé lui-même, d’autres l’auraient fait.

Un point fort de convergence émerge cependant des discours des trois anciens « conspirateurs [6] » de l’apprentissage profond : celui de l’intervention urgente d’une régulation pour limiter les effets négatifs des développements de « l’IA ».

Une nécessaire régulation, mais de quel ordre ?

Nous commencerons donc par rassurer les trois chercheurs s’ils nous lisent : la communauté juridique ne les a pas attendus pour initier des réflexions approfondies pour aller plus loin que la vague éthique soutenue massivement par l’industrie numérique dans les années 2010 [7]. Contrairement à ce qu’avance notamment Yoshua Bengio, nous ne nous trouvons pas (à tout le moins en Europe) dans un total « Far West » législatif.

L’interdiction en Italie de ChatGPT (même détourné avec le déploiement de PizzaGPT [8]) l’a montré, comme l’arrêt de systèmes algorithmiques contestables (pensons à SyRI aux Pays-Bas ou à l’expérimentation de iBorderCtrl aux frontières européennes).

L’accélération du vote de textes spécifiques, adoptant des définitions et principes communs, prévenant mieux les risques et facilitant la charge de la preuve est déjà bien enclenchée, tant du côté de l’Union européenne avec une proposition de règlement sur « l’IA » (et l’adoption au Parlement européen d’un texte de compromis entre commissions [9], donnant des perspectives pour l’ouverture rapide d’un trilogue entre Commission, Parlement et Conseil de l’Union), qu’au Conseil de l’Europe avec la tenue active de négociations pour un traité international qui pourraient se conclure en fin d’année 2023 ou début 2024 [10].

Mais parle-t-on exactement de la même régulation entre juristes et chercheurs ?

Ainsi Yoshua Bengio invoque un principe de prudence et des règles communes, en mettant l’accent sur la concentration des pouvoirs aux mains d’un petit nombre de compagnies, pour certaines applications. Yann LeCun réclame, quant à lui, à une infrastructure ouverte de « l’IA », soutenue par les gouvernements, et en appelle à s’assurer qu’elle n’est pas dangereuse pour le public, notamment par le biais de standards comme pour les avions ou les médicaments. Enfin, Geoffrey Hinton reste plus flou sur les mesures à mettre en place pour s’assurer d’un encadrement de la course globale entre des géants comme Microsoft et Google et éviter une sorte de « surarmement » de systèmes. Mais il rejoint Yoshua Bengio sur la nécessité de faire une pause.

De manière commune, les dangers dénoncés sont en réalité divers et diffus, certains en écho au succès médiatique de ChatGPT avec les risques liés à la propagande de masse, d’autres déjà connus comme les systèmes armés létaux autonomes (SALA), d’autres moins comme l’autonomisation de production de code informatique par les systèmes eux-mêmes.

Là encore et même si elles ont eu moins d’écho médiatique, les discussions tenues dans les divers fora internationaux de régulateurs depuis 2018 ont déjà pris en compte un très large nombre d’inquiétudes substantielles, allant bien au-delà des pistes prospectives ouvertes par Bengio, LeCun et Hinton : la prévention des risques, notamment, est, d’un point de vue technique, très bien couverte par la proposition de règlement de la Commission européenne. Il persiste donc l’impression que ces chercheurs auraient pu employer bien plus tôt leur réputation pour venir au soutien d’une régulation effective et contraignante quand elle n’était pas dans l’air du temps. À les entendre maintenant, l’on ne peut s’empêcher de penser, comme La Bruyère au début de la querelle entre Anciens et Modernes, que « tout est dit, et l’on vient trop tard… » ou qu’ils pourraient s’approprier la dynamique de régulation, pourtant enclenchée bien avant leurs prises de position.

Toutefois, l’interprétation du sens de leurs propos n’est pas épuisée par ces constats. Loin de là.

Des postures d’alerte renforçant en réalité la crédibilité de « l’IA »

Leurs positions, même avec leurs divergences, renforcent en réalité la crédibilité de « l’IA » comme étant un outil à même de répondre à la plupart des maux de notre société… mais dont la puissance créé des dangers à la hauteur des performances alléguées.

Or, laissez-moi vous rassurer : même si elles peuvent être instrumentalisées de manière délétère, la statistique et les probabilités ne présentent pas un danger extrême pour l’humanité ! Car « l’IA » à laquelle nous avons affaire reste, pour la simplifier à l’extrême, une grosse machinerie statistique.

Le réel danger, et nos trois chercheurs l’omettent soigneusement, c’est la persistance à surévaluer systématiquement les capacités de systèmes qui restent stupides, artisanaux et fragiles. Contribuer à entretenir l’illusion qu’ils vont pouvoir se substituer progressivement à une prise de décision érudite et experte, résultant d’une longue formation parmi des pairs, relève d’une totale incompréhension de la réalité des objets à l’œuvre, entretenue par un savant marketing de l’industrie numérique. Cette mécanique se révèle également dans le solutionnisme ambiant qui règne dans bien trop de discours de politiques publiques, pour paraître moderne et adapté à son temps. Quand l’on se rendra compte que ces systèmes, coûtant des sommes substantielles à créer et à maintenir, produisent bien trop de faux positifs pour être efficaces dans la durée, les ingénieurs-entrepreneurs ayant vendu ces montagnes algorithmiques seront déjà loin, en train de surfer sur la nouvelle hype de l’instant.

Non, ces systèmes ne sont toujours pas en capacité de modéliser le monde avec une acuité suffisante. Et l’adjonction massive de données ou la densification de paramètres n’y changera rien, puisqu’en même temps que l’on accroit les observations, l’on accroit les corrélations résultant du seul hasard [11]. Même si nous sommes sidérés par l’effet « Eliza » de ChatGPT [12], éblouis par les créations artistiques de Midjourney, enthousiasmés par l’emploi de modèles prédictifs pour chercher à mieux anticiper les conséquences du changement climatique, nous n’avons franchi qu’une étape supplémentaire de sophistication de l’approche statistique. Et la complexification d’un système n’en fait certainement pas un système avec des étincelles d’intelligence (au sens humain du terme).

Déconstruire l’utopie techniciste

Il est donc extrêmement surprenant que ces trois éminents chercheurs, à l’humanisme évident, qui ont investi toute leur énergie de conviction durant des décennies pour atteindre l’exact point où nous nous trouvons aujourd’hui, présentent des regrets pour les dangers qu’ils ont eux-mêmes contribué à créer avec méthode et pugnacité. Soit cela relève d’un nouveau coup marketing de génie pour chercher encore renforcer le champ industriel dans lequel ils opèrent (« si cela est très dangereux, c’est que cela fonctionne » [13]), soit d’une inconséquence morale majeure (en connaissant très bien les limites évoquées, mais en les minimisant ou en ne voulant pas les voir pour ne pas nuire à la narration qu’ils continuent de forger).

Déconstruire l’utopie techniciste et de science-fiction ambiante, voilà en revanche une responsabilité majeure reposant sur l’ensemble de la recherche, afin que les débats puissent s’opérer de manière démocratique, éclairée et sans influence commerciale, et permettre de réels choix sociétaux.

Il faut évidemment entendre les risques de dégâts considérables sur les individus et la société qui résulteront de l’extraordinaire propagande de masse déjà à l’œuvre. Mais des contre-mesures ont su être bâties à l’ère des mass media, et la production industrielle de désinformation trouvera ses réponses. Ce qu’il faut craindre, en revanche, c’est la terrible inconséquence de la véritable ère de l’approximation [14] dans laquelle nous vivons, pour des préoccupations essentiellement mercantiles et sécuritaires.

 

 

[1] Pour une histoire détaillée de la stratégie des trois scientifiques pour faire émerger les réseaux de neurones, v. D. Cardon, J-P. Cointet, A. Mazières, La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle, Réseaux, vol. 211, nº 5, 2018, pp. 173-220.

[2] C. Legros, Yoshua Bengio, chercheur : « Aujourd’hui, l’intelligence artificielle, c’est le Far West ! Nous devons ralentir et réguler », Le Monde, 28 avril 2023, accessible sur : https://www.lemonde.fr/idees/article/2023/04/28/yoshua-bengio-chercheur-aujourd-hui-l-intelligence-artificielle-c-est-le-far-west-nous-devons-ralentir-et-reguler_6171336_3232.html, consulté le 1er mai 2023

[3] C. Legros, Yann Le Cun, directeur à Meta : « L’idée même de vouloir ralentir la recherche sur l’IA s’apparente à un nouvel obscurantisme », Le Monde, 28 avril 2023, accessible sur : https://www.lemonde.fr/idees/article/2023/04/28/yann-le-cun-directeur-a-meta-l-idee-meme-de-vouloir-ralentir-la-recherche-sur-l-ia-s-apparente-a-un-nouvel-obscurantisme_6171338_3232.html, consulté le 1er mai 2023

[4] C. Metz, ‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead, The New York Times, 1er mai 2023.

[5] Z. Kleinman, Ch. Valence, AI ‘godfather’ Geoffrey Hinton warns of dangers as he quits Google, BBC, 2 mai 2023, accessible sur : https://www.bbc.com/news/world-us-canada-65452940, consulté le 3 mai 2023.

[6] B. Georges, Hinton, LeCun, Bengio : la « conspiration » du deep learning, Les Echos, 9 août 2018, accessible sur : https://www.lesechos.fr/tech-medias/intelligence-artificielle/hinton-lecun-bengio-la-conspiration-du-deep-learning-136426, consulté le 2 mai 2023.

[7] V. par exemple Y. Meneceur, Plaidoyer pour une réglementation internationale et européenne, Bruylant, 2020.

[8] Accessible sur : https://www.pizzagpt.it/, consulté le 2 mai 2023.

[9] L. Bertuzzi, MEPs seal the deal on Artificial Intelligence Act, Euractiv, 27 avril 2023, accessible sur : https://www.euractiv.com/section/artificial-intelligence/news/meps-seal-the-deal-on-artificial-intelligence-act/, consulté le 2 mai 2023.

[10] Le projet de traité est accessible sur : https://www.coe.int/fr/web/artificial-intelligence/cai, consulté le 2 mai 2023.

[11] C.S. Calude, G. Longo, The Deluge of Spurious Correlations in Big Data, Lois des dieux, des hommes et de la nature, octobre 2015, pp.1-18.

[12] Y. Meneceur, ChatGPT : sortir de la sidération, Actu-Juridique.fr, 28 février 2023, accessible sur : https://www.actu-juridique.fr/ntic-medias-presse/chatgpt-sortir-de-la-sideration/, consulté le 3 mai 2023.

[13] L’argument avait déjà été utilisé par OpenAI en 2019 : Better language models and their implications, OpenAI, 14 février 2019, accessible sur : https://openai.com/research/better-language-models, consulté le 2 mai 2023

[14] V. Y. Meneceur, Plaidoyer pour une réglementation internationale et européenne, op.cit., p.400

 

 

 

 

 

Plan