Pour l’instant, l’IA n’a ni conscience des enjeux ni de conscience tout court, mais Londres organise mercredi et jeudi un sommet sur sa régulation, la Maison-Blanche vient de signer un décret pour l’encadrer et l’Union européenne veut se doter avant la fin de l’année d’un nouveau règlement. Tour d’horizon des risques liés à cette révolution technologique.
Les algorithmes font partie du quotidien depuis longtemps, mais le succès sans précédent de ChatGPT (OpenAI) a relancé le débat en 2023.
L’IA dite générative, capable de produire textes, images et sons sur simple commande en langage courant, soulève notamment la question de l’obsolescence de certains emplois. Les machines et donc l’automatisation de nombreuses tâches ont déjà eu cet effet dans de nombreuses industries, de l’agriculture aux usines.
Avec ses capacités génératives, l’IA touche désormais aussi les cols blancs - personnel administratif, avocats, médecins, journalistes, enseignants, etc. «D’ici 2030, jusqu’à 30 % des heures actuellement travaillées dans l’économie américaine pourraient être automatisées, une tendance accélérée par l’IA générative», a indiqué le cabinet de conseil McKinsey en juillet. En guise de solution, la Silicon Valley invoque souvent le revenu universel de base, c’est-à-dire une allocation minimum pour tous qui compenserait la perte des emplois, même si sa faisabilité à grande échelle n’est pas prouvée.
Propriété intellectuelle
Les artistes ont été parmi les premiers à protester face aux logiciels comme DALL-E (OpenAI) ou Midjourney, qui génèrent des images sur demande. Comme les développeurs, écrivains et d’autres professions créatives, ils reprochent aux entreprises d’avoir utilisé leurs œuvres pour créer leur technologie, sans permission ni rémunération. Car les IA génératives sont fondées sur des modèles de langage, des systèmes informatiques qui nécessitent des montagnes de données récupérées en ligne.
«Nous entraînons (l’IA) pour être, d’une certaine façon, toute l’humanité. Elle est formée sur la production d’une énorme fraction de l’humanité», a déclaré Sam Altman, le fondateur d’OpenAI, lors d’une conférence en septembre. «Cet outil va démultiplier les capacités des êtres humains et non les remplacer», assure-t-il. Plusieurs affaires judiciaires sont en cours et pourraient redéfinir la notion de propriété intellectuelle.
Les fausses informations et les montages perfectionnés (deepfake) ne sont pas nouveaux, mais l’IA générative fait craindre un déferlement de faux contenus en ligne. Les élections risquent «d’être gagnées par les personnes les plus douées à répandre de la désinformation», souligne Gary Marcus, spécialiste de l’IA. Surtout, «la démocratie repose sur l’accès aux informations nécessaires pour prendre les bonnes décisions. Si plus personne ne sait ce qui est vrai ou non, c’est fini».
Fraude
L’IA générative facilite aussi la tâche des escrocs, qui peuvent créer des emails d’hameçonnage plus convaincants. Il existe même des modèles de langage entraînés spécifiquement pour produire des contenus malveillants, comme FraudGPT. Mais la technologie a surtout rendu très facile de copier un visage ou une voix et donc de piéger des personnes en leur faisant croire que leur enfant a été enlevé, par exemple.
Danger humain
Comme pour de nombreuses autres technologies, le danger principal de l’IA est lié aux humains - de la conception à l’utilisation. Un logiciel de recrutement risque de discriminer des candidats s’il reproduit mécaniquement les biais humains existants dans la société.
Un modèle de langage n’est ni «woke» (militantisme qui vise notamment à défendre les minorités) ni raciste en soi, tout dépend des données et des instructions fournies par les ingénieurs. De façon générale, l’intelligence artificielle peut faciliter de nombreuses activités dangereuses pour les humains et leurs droits fondamentaux, de l’invention de molécules nocives à la surveillance de la population.
Certains acteurs du secteur craignent qu’une IA ne devienne capable de raisonner au point de pouvoir prendre le contrôle sur les humains. OpenAI travaille à la construction d’une «intelligence artificielle générale» (plus intelligente que les humains), dans le but de «bénéficier à toute l’humanité».
Elle compte sur l’utilisation à grande échelle de ses modèles pour détecter et rectifier les problèmes. En parallèle, Sam Altman et d’autres responsables de grandes entreprises technologiques ont appelé cet été à lutter contre «les risques d’extinction» de l’humanité «liés à l’IA». Pour l’historien Emile Torres, c’est une distraction face à des problèmes bien réels.
«Parler de l’extinction de l’humanité, d’un véritable événement apocalyptique, est tellement plus captivant que de parler des travailleurs kényans payés 1,32 dollar de l’heure» pour modérer des contenus utilisés dans l’IA «ou des artistes et des écrivains exploités» pour alimenter les modèles d’intelligence artificielle, a-t-il récemment dit à l’AFP.