Invasion de Taïwan par la Chine, effondrement des marchés financiers, le crime qui explose à Los Angeles… dans une vidéo qui semble réaliste de 33 secondes, mais qui ne contient que de fausses informations et images, un clip dépeint sur une musique angoissante l’avenir sombre et dystopique qui pourrait se produire si Joe Biden était réélu. En haut à gauche, à peine visible, la police de caractère étant particulièrement petite, on peut voir la mention « Généré par l’intelligence artificielle (IA) » (« Built entirely with AI imagery »). Le clip provient très officiellement du parti républicain qui l’a diffusé en avril dernier, après que le président démocrate Joe Biden a annoncé qu’il se représentait à l’élection présidentielle.
Le risque de désinformation à grande échelle
Et ce cas est loin d’être isolé. Plus récemment, c’est le candidat républicain à la présidence Ron DeSantis, le gouverneur de Floride, qui a créé un autre clip grâce à l’IA, visant cette fois à discréditer son concurrent Donald Trump : on peut y voir l’ancien président étreignant Anthony Fauci, le Monsieur Covid américain – une scène qui n’a jamais eu lieu. Ce type de vidéos paraissant plus vrai que nature pourraient se multiplier dans les prochaines semaines, à mesure que l’élection américaine se rapproche. Et c’est ce qui inquiète particulièrement les experts du monde entier. Car « l’intelligence artificielle peut produire de la désinformation à l’échelle industrielle », alerte Michael Wooldridge à nos confrères du Guardian, directeur de la recherche sur l’IA à l’Institut Alan Turing, au Royaume-Uni.
Comment encadrer ces deepfakes politiques ?
Pour certains, il est temps de réglementer ce type de vidéos diffusées à des fins électorales et générées par l’IA, si possible avant le début des périodes électorales. Car l’IA pourrait multiplier les fausses informations ou les images chocs pour convaincre, voire manipuler les électeurs. Mais toute la question réside dans le comment : comment encadrer ces deepfakes politiques, ces vidéos ou images fabriquées à bas coût, alors que les plateformes en ligne et les réseaux sociaux ont déjà du mal à retirer les fausses informations, et qu’ils sont toujours irresponsables des contenus diffusés par les utilisateurs sur leur plateforme ?
Aux États-Unis, rapporte Axios le mardi 20 juin, la pratique n’est pour l’instant ni interdite ni encadrée. Facilement accessible, et peu coûteuse, cette technologie permet aux partis politiques de faire passer des messages bien plus efficacement qu’un discours lors d’un meeting. Ces vidéos sont ensuite diffusées massivement sur les réseaux sociaux, avec dans le meilleur des cas une mention peu visible prévenant qu’elles ont été générées par l’IA.
Dans le pays, rien n’interdit – au niveau fédéral – d’utiliser cette technologie à des fins politiques, mais la Commission électorale fédérale américaine a expliqué mardi 20 juin qu’elle réfléchissait à élaborer une réglementation sur les deepfakes politiques, rapporte Axios. Elle pourrait inclure les publicités générées avec l’IA et destinées à tromper les utilisateurs en les considérant comme des « déclarations frauduleuses », une catégorie déjà sanctionnée par une loi existante. Côté plateforme en ligne et réseaux qui interdisent souvent les contenus destinés à manipuler le public, il n’y aurait pas grand chose à attendre, soulignent nos confrères.
Une nouvelle loi, des mentions obligatoires, un engagement des candidats ?
Google explique pourtant à Axios que « toutes les publicités, y compris électorales, doivent être conformes à nos conditions générales d’utilisation de nos services, quelle que soit la manière dont elles sont créées. Ces règles interdisent déjà l’utilisation de médias manipulés pour tromper les gens, comme les deepfakes ou les contenus trafiqués, ainsi que les publicités qui promeuvent des affirmations manifestement fausses sur les élections ». Mais pour Emma Steiner, analyste de la désinformation chez Common Cause, interrogée par nos confrères, les plateformes « ne sont pas disposées à agir sur les récits de désinformation qui évoluent ».
Faut-il alors une nouvelle loi ? C’est ce que pense la députée Yvette Clarke qui a présenté un projet le mois dernier au Congrès américain. On peut lire dans ce texte que les « innovations révolutionnaires dans le domaine de l’intelligence artificielle générative » sont susceptibles « d’exacerber et de répandre la désinformation à grande échelle et à une vitesse sans précédent ». Elle exige que le public soit a minima informé qu’il s’agit d’images générées par l’IA lorsque les publicités politiques comprennent des contenus créés par cette technologie. Au sein de l’Union européenne, le futur règlement sur l’IA prévoit aussi une mention obligatoire informant l’utilisateur de l’utilisation de l’IA. Mais cette mention pourrait facilement être effaçable, critiquent certains qui estiment qu’il faudra des mesures ou des garde-fous supplémentaires.
À lire aussi : Les deepfakes pornographiques : un déplorable business en plein boom
Autre voie : les candidats pourraient s’engager à ne pas diffuser de publicités utilisant l’IA pour générer des images ou des informations qui pourraient raisonnablement tromper le public, comme le préconise le professeur Clay Calvert de l’Université de Floride, dans les colonnes du Hill. En 2019, Joe Biden, alors candidat, s’était engagé à ne pas utiliser de deepfakes pendant sa campagne électorale. Va-t-il résister cette fois-ci à cette technologie, avec des adversaires qui n’hésitent pas à y avoir recours pour l’attaquer et le discréditer ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Axios