Etats-Unis : Les faux contenus créés par l’IA, menace pour l’élection de 2024

31/05/2023 mis à jour: 22:54
AFP
804
Cette image de Donald Trump arrêté par la police a été générée par une intelligence artificielle

Une photo de Donald Trump arrêté, une vidéo montrant un futur sombre en cas de réélection du président Joe Biden, ou encore l’enregistrement audio d’une dispute entre les deux hommes. Ces publications sur les réseaux sociaux ont un point commun  : elles sont complètement fausses. Toutes ont été créées à l’aide de l’intelligence artificielle (IA), une technologie en plein essor. 

Des experts craignent qu’elle ne provoque un déluge de fausses informations pendant l’élection présidentielle de 2024, sans doute le premier scrutin où son utilisation sera généralisée. Démocrates comme républicains seront tentés de recourir à l’IA - bon marché, accessible et peu encadrée juridiquement - pour mieux séduire les électeurs ou produire des tracts en un claquement de doigts. Mais les experts redoutent que cet outil soit aussi utilisé pour semer le chaos dans un pays divisé, où certains électeurs croient encore que l’élection de 2020 a été volée à l’ancien président Donald Trump, malgré les preuves du contraire.

 En mars, de fausses images - générées par l’IA - le montrant interpellé par des policiers sont devenues virales, offrant un aperçu de ce à quoi pourrait ressembler la campagne de 2024. Le mois dernier, en réponse à l’annonce de candidature de Joe Biden, le parti républicain a publié une vidéo, également réalisée via une IA, prédisant un futur cauchemardesque s’il était réélu. Les images réalistes, bien que fausses, montraient l’invasion de Taïwan par la Chine ou un effondrement des marchés financiers. 

Et plus tôt cette année, un enregistrement audio dans lequel Donald Trump et Joe Biden s’insultent copieusement a fait le tour de TikTok. Il était bien entendu faux, et, là encore, produit grâce à l’IA. Pour Joe Rospars, fondateur de l’agence digitale Blue State, les personnes mal intentionnées disposent, avec cette technologie, «de nouveaux outils pour alimenter la haine» et pour «embobiner la presse et le public». Les combattre «demandera de la vigilance aux médias, aux entreprises technologiques et aux électeurs eux-mêmes», déclare-t-il à l’AFP.
 

«Mensonges»  

Quelles que soient les intentions de la personne qui l’utilise, l’efficacité de l’IA est indéniable.
Quand l’AFP a demandé à ChatGPT de créer une newsletter politique en faveur de Donald Trump, lui fournissant des fausses informations qu’il a propagées, l’interface en a tiré, en quelques secondes, un texte léché - et truffé de mensonges. Et quand il a été demandé au robot de rendre le texte «plus agressif», il a régurgité ces fausses allégations sur un ton encore plus catastrophiste. «Pour le moment, l’IA ment beaucoup», explique Dan Woods, ancien responsable dans la campagne de Joe Biden en 2020. «Si nos adversaires étrangers n’ont qu’à convaincre un robot déjà délirant de diffuser de la désinformation, nous devrions nous préparer à une campagne de désinformation bien plus intense qu’en 2016», dit-il. 

Dans le même temps, cette technologie peut aussi aider à mieux comprendre les électeurs, particulièrement ceux qui ne votent pas ou peu, assure Vance Reavie, patron de Junction AI.  L’intelligence artificielle permet «de comprendre précisément ce qui les intéresse et pourquoi, et à partir de là nous pouvons déterminer comment les impliquer et quelles politiques les intéresseront», dit-il.Elle pourrait aussi faire gagner du temps aux équipes de campagne quand elles doivent écrire des discours, des tweets ou des questionnaires pour les électeurs.

«Nier la réalité»  

Mais «beaucoup du contenu généré sera faux», note Vance Reavie. La défiance de nombreux Américains vis-à-vis des grands médias n’arrange rien. «Ce qui est à craindre, c’est qu’à mesure qu’il sera plus facile de manipuler les médias, il sera plus facile de nier la réalité», estime Hany Farid, professeur à l’université de Californie à Berkeley. «Si, par exemple, un candidat dit quelque chose d’inapproprié ou d’illégal, il peut simplement dire que l’enregistrement est faux. C’est particulièrement dangereux». 

Malgré les craintes, la technologie est déjà à l’œuvre. Betsy Hoover, de Higher Ground Labs, a déclaré à l’AFP que son entreprise développait un projet visant à écrire et évaluer l’efficacité d’emails de levée de fonds à l’aide de l’IA. 

«Les personnes mal intentionnées utiliseront tous les outils à leur disposition pour arriver à leur but, et l’IA ne fait pas exception», affirme cette ancienne responsable dans la campagne de Barack Obama en 2012. «Mais je ne crois pas que cette crainte doit nous empêcher de tirer profit de l’IA». 

Copyright 2024 . All Rights Reserved.