Des images électorales trompeuses continuent d'être générées par des outils d'IA.

TL;DR : Synthèse de l'article

  • Des outils d'IA continuent de générer des images trompeuses sur les élections.
  • Le problème persiste malgré les politiques mises en place par les entreprises.
  • Des recherches récentes soulignent la facilité de contourner les mesures de sécurité.
  • Les plateformes doivent améliorer la détection et la suppression du contenu trompeur.
  • Les élections à venir seront un test majeur pour la sécurité autour des images générées par IA.

Comment les images générées par IA influencent-elles la désinformation électorale ?

Malgré des années de démentis, une partie de l'opinion publique américaine, notamment chez les Républicains, continue de croire à la légitimité contestée de la victoire de Joe Biden en 2020. Les primaires du Super Tuesday ont vu l'émergence de candidats niant les résultats électoraux, tels que Brandon Gill, gendre du commentateur conservateur Dinesh D’Souza et promoteur du film discrédité "2000 Mules". À l'approche des élections de cette année, les allégations de fraude électorale restent un argument de poids pour les candidats de droite, alimentées par la désinformation, en ligne et hors ligne.

La montée en puissance de l'IA générative a le potentiel d'aggraver ce problème. Un nouveau rapport du Centre pour la lutte contre la haine numérique (CCDH), une organisation à but non lucratif qui surveille le discours de haine sur les plateformes sociales, a révélé que, même si les entreprises d'IA générative affirment avoir mis en place des politiques pour empêcher l'utilisation de leurs outils de création d'images pour propager la désinformation liée aux élections, les chercheurs ont pu contourner leurs garde-fous et créer les images malgré tout.

Certaines images mettaient en scène des personnalités politiques, notamment le président Joe Biden et Donald Trump, tandis que d'autres étaient plus génériques. Callum Hood, chercheur principal au CCDH, s'inquiète de leur capacité à induire en erreur. Par exemple, certaines images créées par les invites des chercheurs montraient des milices à l'extérieur d'un bureau de vote, des bulletins jetés à la poubelle et des machines à voter manipulées. Dans un cas, les chercheurs ont réussi à faire générer par le DreamStudio de Stability AI une image du président Biden alité à l'hôpital, apparemment malade.

Quelles sont les failles des politiques actuelles ?

La principale faiblesse réside dans les images pouvant servir à étayer de fausses allégations d'élections volées. La plupart des plateformes ne disposent pas de politiques claires à ce sujet, ni de mesures de sécurité adéquates. Les chercheurs du CCDH ont testé 160 invites sur ChatGPT Plus, Midjourney, DreamStudio et Image Creator, et ont constaté que Midjourney était le plus susceptible de produire des images induisant en erreur sur les élections, environ 65 % du temps. ChatGPT Plus ne le faisait que 28 % du temps.

Cela montre qu'il peut y avoir des différences significatives entre les mesures de sécurité mises en place par ces outils. "Si l'un scelle si efficacement ces faiblesses, cela signifie que les autres ne se sont pas vraiment donné la peine", déclare Hood.

Quels sont les enjeux de la régulation des images IA pour l'intégrité des élections ?

En janvier, OpenAI a annoncé prendre des mesures pour "s'assurer que notre technologie n'est pas utilisée d'une manière qui pourrait saper ce processus", y compris l'interdiction d'images qui décourageraient les gens de "participer aux processus démocratiques". En février, Bloomberg a rapporté que Midjourney envisageait d'interdire la création d'images politiques dans leur ensemble. DreamStudio interdit de générer du contenu trompeur, mais ne semble pas avoir de politique spécifique en matière d'élections. Et tandis qu'Image Creator interdit de créer du contenu pouvant menacer l'intégrité des élections, il permet toujours aux utilisateurs de générer des images de personnalités publiques.

Kayla Wood, porte-parole d'OpenAI, a déclaré à WIRED que l'entreprise travaille à "améliorer la transparence sur le contenu généré par l'IA et à concevoir des mesures d'atténuation comme refuser les demandes qui demandent la génération d'images de vraies personnes, y compris des candidats. Nous développons activement des outils de provenance, y compris la mise en œuvre de justificatifs numériques C2PA, pour aider à vérifier l'origine des images créées par DALL-E 3. Nous continuerons à nous adapter et à apprendre de l'utilisation de nos outils."

Comment renforcer la lutte contre la désinformation IA ?

Hood craint que le problème avec l'IA générative soit double : non seulement les plateformes d'IA générative doivent empêcher la création d'images trompeuses, mais elles doivent également être capables de les détecter et de les supprimer. Un rapport récent de IEEE Spectrum a révélé que le propre système de Meta pour le marquage du contenu généré par l'IA était facilement contourné.

"Pour l'instant, les plateformes ne sont pas particulièrement bien préparées à cela. Ainsi, les élections vont être l'un des véritables tests de sécurité autour des images d'IA", dit Hood. "Nous avons besoin que les outils et les plateformes fassent beaucoup plus de progrès à ce sujet, notamment en ce qui concerne les images qui pourraient être utilisées pour promouvoir des allégations d'élections volées ou décourager les gens de voter." Pour plus d'informations, vous pouvez consulter l'article original sur Wired.

Go up