Sommet mondial de Séoul : Les géants de l’IA au défi d’encadrer une technologie en perpétuel développement

25/05/2024 mis à jour: 04:59
AFP
2119
Les participants ministériels au Sommet mondial sur l’intelligence artificielle à Séoul

Lors de cet événement organisé conjointement par la Corée du Sud et le Royaume-Uni, les leaders du secteur - du sud-coréen Samsung Electronics à l’américain Google en passant par OpenAI, le créateur de ChatGPT - ont codifié leurs engagements dans un document intitulé «Seoul AI Business Pledge» (Engagement de Séoul des entreprises sur l’IA). 

La veille, seize des plus gros acteurs du secteur avaient déjà signé un accord pour garantir la sécurité de l’IA, en s’appuyant sur le consensus atteint lors du premier «sommet» mondial sur le sujet, en 2023 à Bletchley Park (Royaume-Uni).Ils ont notamment promis de définir les risques «jugés intolérables», et ce que les entreprises feront pour les prévenir. 

Les signataires se sont également engagés à ne pas développer ou déployer un modèle ou un système dont les risques s’avéreraient trop difficiles à maîtriser. Mais pour les experts, il est difficile pour les régulateurs de comprendre et de gérer l’IA, vu la vitesse foudroyante avec laquelle elle se développe. «Je pense que c’est un très très gros problème», avertit Markus Anderljung, du Centre pour la gouvernance de l’IA, organisme de recherche basé à Oxford, au Royaume-Uni.


Se mettre au diapason 

«L’IA sera l’un des plus grands défis que les gouvernements du monde entier auront à relever au cours des deux prochaines décennies», prophétise cet expert. «Le monde devra acquérir une sorte de compréhension commune des risques liés aux modèles généraux les plus avancés». Pour Michelle Donelan, la secrétaire d’Etat britannique à la science, à l’innovation et à la technologie, «le rythme de développement de l’IA s’accélérant, nous devons nous mettre au diapason (...) si nous voulons en maîtriser les risques». Lors du prochain «sommet» sur l’IA, les 10 et 11 février 2025 en France, il y aura davantage d’occasions de repousser les limites en termes de tests et d’évaluation des nouvelles technologies, pronostique Mme Donelan. «Simultanément, nous devons porter notre attention sur l’atténuation des risques en dehors de ces modèles, en veillant à ce que la société dans son ensemble devienne résiliente face aux dangers posés par l’IA», ajoute la secrétaire d’Etat.

Le succès fulgurant de ChatGPT peu après sa sortie en 2022 a déclenché une ruée dans le domaine de l’IA générative, les entreprises technologiques du monde entier investissant des milliards de dollars dans le développement de leurs propres modèles. Les modèles d’IA générative peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invites de commande. Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier.Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos «deepfake» de dirigeants politiques. Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l’utilisation de l’IA.


Cauchemars de science-fiction 

«De plus en plus, nous réalisons qu’une coopération mondiale est nécessaire pour vraiment réfléchir aux problèmes et aux effets néfastes de l’intelligence artificielle. L’IA ne connaît pas de frontières», estime Rumman Chowdhury, une experte en éthique de l’IA qui dirige Humane Intelligence, organisation indépendante qui évalue les modèles d’IA. 
 

Selon elle, le danger ne vient pas seulement de l’IA galopante des cauchemars de science-fiction, mais aussi de l’inégalité face à cette technologie, alors que l’IA est développée par un très, très petit nombre de personnes et d’organisations qui en récoltent les bénéfices. Quant aux habitants des pays en développement, comme l’Inde, «ce sont souvent ceux qui font le ménage. Ce sont les annotateurs de données, les modérateurs de contenus. Ils nettoient le sol pour que tous les autres puissent marcher sur un terrain vierge», regrette Mme Chowdhury. 
 

Copyright 2024 . All Rights Reserved.