Les deepfakes par IA vont bousculer les élections 2024
Les deepfakes générés par l’IA sont déjà là et leur utilisation a déjà commencé à perturber les élection 2024. Le problème ne concerne pas que les élections américaines, il touche également les élections européennes et a déjà touché les élections slovaques en 2023.
Les outils permettant de créer des deepfakes grâce à l’IA sont à la fois abordables, simples à utiliser et remarquablement performants. Actuellement, ce sont surtout les deepfakes audio qui connaissent une utilisation répandue lors des élections, en raison de leur facilité de création et de leur efficacité lorsqu’ils sont correctement utilisés.
Nous assistons aux prémices de ce phénomène, où la méfiance n’est pas encore généralisée, ce qui rend les deepfakes particulièrement efficaces pour le moment. Toutefois, à mesure que l’esprit critique se développera, leur impact devrait diminuer. Nous disposons d’un guide pour repérer les fausses informations et la désinformation, comprenant des conseils pour évaluer correctement une information. Ces principes s’appliquent également aux deepfakes audio ou vidéo.
Les deepfakes par IA les plus marquants en 2024 et 2023
Si les élections de 2024 sont sans aucun doute menacées, les deepfakes par IA ont déjà frappé en Slovaquie et ailleurs en 2023. Voici quelques exemples marquants, la liste n’est bien sûr pas exhaustive.
Deepfake Audio lors des élections en Slovaquie en 2023
À seulement deux jours des élections en Slovaquie, un deepfake audio a été diffusé sur Facebook, mettant en scène deux voix : prétendument celle de Michal Šimečka, leader du parti libéral Slovaquie Progressiste, et de Monika Tódová, journaliste pour le quotidien Denník N. Ils semblaient discuter de stratégies visant à manipuler le scrutin, notamment en achetant des votes auprès de la minorité Rom marginalisée du pays.
Šimečka et Denník N ont immédiatement réfuté la véracité de l’enregistrement. Le service de vérification des faits de l’agence de presse AFP a souligné des signes de manipulation par IA dans l’audio. Cependant, la diffusion de l’enregistrement a eu lieu durant la période de moratoire de 48 heures précédant l’ouverture des bureaux de vote, période pendant laquelle médias et politiciens sont censés observer le silence, selon la réglementation électorale slovaque.
Cela a rendu difficile la réfutation généralisée de la publication, conformément aux règles électorales du pays. De plus, étant un enregistrement audio, il a exploité une lacune dans la politique de méta, qui ne cible que les vidéos truquées – où une personne est modifiée pour prononcer des mots qu’elle n’a jamais dits.
L’élection s’est jouée serrée entre deux favoris aux visions divergentes pour la Slovaquie. Le dimanche, il a été annoncé que le parti Slovaquie Progressiste, favorable à l’OTAN, avait été battu par SMER, qui prônait le retrait du soutien militaire à l’Ukraine, son voisin.
Deepfake audio imitant Joe Biden lors des primaires démocrates du 23 janvier 2024
Un appel automatisé utilisant un deepfake de la voix de Joe Biden a été diffusé à environ cinq mille électeurs du New Hampshire, les décourageant de voter aux primaires démocrates.
« Votre vote aura un impact en novembre, pas ce mardi (…) Voter aujourd’hui ne fera que contribuer à la réélection de Donald Trump par les républicains. » Cette déclaration s’est avérée être un faux : la voix de Joe Biden a été imitée par une intelligence artificielle, créant ainsi un deepfake politique qui a suscité une grande inquiétude aux États-Unis.
L’identité du commanditaire a été révélée par NBC comme étant Steve Kramer, un consultant travaillant pour l’équipe d’un autre candidat démocrate, Dean Phillips.
Kramer s’est défendu en indiquant que son objectif était de mettre en lumière les dangers de l’intelligence artificielle en politique. Cependant, il a attendu les révélations de NBC pour expliquer son action. Il déclare avoir été l’instigateur de cette idée et assure que l’équipe de Dean Phillips, qui avait dénoncé cette campagne d’appels, n’était pas impliquée dans le projet.
Aujourd’hui il est confronté à des problèmes juridiques après la diffusion de l’appel. Il a également admis avoir utilisé un procédé similaire auparavant pour imiter la voix du sénateur républicain Lindsey Graham.
Deepfake vidéo sur Taylor Swift
X (ex Twitter) a été fortement critiqué pour avoir diffusé des vidéos deepFake générées par IA mettant en scène la célèbre chanteuse américaine Taylor Swift. Les deepFakes de Taylor Swift manipulent son visage et ses gestes afin d’obtenir des images pornographiques. Nous en parlons en détails sur notre page : Les DeepFakes générés par IA se propagent, le cas Taylor Swift.
Il n’y a pas de stratégie particulière derrière ce deepfake, ni d’ambition d’influencer les élections, mais il illustre un problème grandissant avec les outils de génération vidéo par IA.
La diffusion généralisée de fausses vidéo pornographiques de Taylor Swift sur X illustre bien les défis auxquels sont confrontées toutes les grandes plateformes.
Il y a plusieurs procès en cours en matière de droits d’auteur qui pourraient bien entraver l’essor de l’IA. Cependant, les résultats de ces procès sont encore incertains, tandis que le véritable problème réside dans la capacité des systèmes d’IA à produire des contenus falsifiés assez convaincants, que ce soit des images ou des audios, et peut-être bientôt des vidéos grâce à des outils comme le récent Sora d’OpenAI.
L’influence des deepfakes sur les élections 2024
Les exemples précédents illustrent les capacités des deepfakes générés par IA à désinformer, que ce soit le processus électoral ou d’autres sujets. L’IA générative facilite plus que jamais la création de deepfakes audios, d’images ou encore de vidéos.
La question de la manipulation des médias sur les réseaux sociaux ressurgit à chaque cycle électoral. Aujourd’hui avec la situation en Europe, la désinformation s’amplifie, comme le montre le cas du deepfake lors des élections slovaques.
Des outils simples, effiaces et abordables
Le Financial Times a révélé que des outils de clonage vocal (deepfake) ont été utilisés pour influencer des élections dans plusieurs pays, dont l’Inde, le Royaume-Uni, le Nigeria, le Soudan et l’Éthiopie. Selon l’enquête du Financial Times, les deepfakes audio générées par l’IA sont devenues populaires parmi les propagandistes grâce à la disponibilité croissante et à la facilité d’accès à des outils d’IA bon marché. Ces outils proviennent notamment de start-ups telles que ElevenLabs, Resemble AI, Respeecher et Replica Studios.
L’article met en lumière le fait que des outils basiques peuvent être utilisés à partir de seulement 1 dollar par mois, tandis que des outils plus avancés sont accessibles pour 330 dollars par mois, représentant une fraction minuscule des budgets de campagne politique.
Quelques minutes d’un enregistrement suffisent à générer un deepfake audio convaincant
Un exemple particulièrement troublant concerne l’acteur britannique et intellectuel Stephen Fry. Un programme d’IA a exploité les enregistrements en ligne de Fry lisant sept romans Harry Potter pour créer une fausse narration sur la résistance nazie, incorporant également des noms et des mots allemands et néerlandais parfaitement adaptés à l’accent et à l’intonation de Fry, bien que l’acteur n’ait jamais prononcé ces mots auparavant.
Ce programme d’IA a réussi à prédire de manière surprenante la manière dont Fry aurait prononcé ces mots étrangers. Toutefois, Hany Farid, professeur d’informatique et expert en forensique des médias à l’Université de Californie, Berkeley, a averti dans le magazine Scientific American qu’une simple minute d’enregistrement de la voix de quelqu’un peut désormais suffire à fabriquer un faux audio convaincant à partir d’outils d’IA générative, pour un coût mensuel aussi bas que 5 dollars.
L’usurpation d’identité, une menace grandissante
Cela représente une nouvelle menace d’usurpation d’identité. Il y a deux principales méthodes utilisées pour créer des deepfakes audio par IA. Soit par conversion texte en parole, où un escroc télécharge un enregistrement audio réel et tape ensuite ce qu’il souhaite que la voix « dise ». Soit par conversion de la parole à la parole, où l’escroc enregistre une déclaration dans sa propre voix avant de la faire convertir par l’outil.
Les compétences requises pour créer des deepfakes par IA sont minimes. Le coût est également très abordable. Deux caractéristiques qui favorisent la propagation de deekfake par IA sur les réseaux sociaux, que ce soit pour les élections ou d’autres sujets.
Les deepfakes par IA pour amplifier la désinformation politique lors des élections
Les tactiques politiques malveillantes sont déjà en jeu, comme en témoigne le faux appel téléphonique de Joe Biden au New Hampshire ou encore le cas de la Slovaquie. Si les mensonges ont toujours fait partie intégrante des campagnes politiques, il est frappant de constater à quel point il est devenu facile et rapide de les propager grâce à des outils d’IA accessibles à tous.
Les débats sur la désinformation en 2024 seront sans aucun doute plus animés que jamais. Les démocraties valorisent la liberté d’expression, ce qui complique la réglementation des contenus en ligne. Imposer des restrictions peut être perçu comme une atteinte aux libertés fondamentales. Comme le précise l’ONU, l’accent doit être mis sur la sensibilisation et l’éducation.
Cependant beaucoup d’utilisateurs d’Internet ne sont pas pleinement conscients de l’existence des deepfakes et de la désinformation, ou ne disposent pas des compétences nécessaires pour les identifier.
Le débat nécessaire sur les deepfakes par IA et la désinformation
Les débats sur la politique de modération des plateformes en ligne, visant à lutter contre la création et la propagation de deepfakes, sont néanmoins nécessaires pour limiter le phénomène largement amplifié par l’IA.
Bien sûr, aucune de ces questions n’est facile à résoudre. Cependant, il est primordial d’examiner attentivement les mesures prises par les entreprises d’IA, les plateformes de médias sociaux et les décideurs politiques pour faire face à ces défis croissants. En tant qu’individus, nous devons également garder à l’esprit ces problématiques alors que le cycle électoral s’intensifie.
Durant la pandémie de Covid, une opération de désinformation rémunérée a été repérée sur YouTube. Plusieurs créateurs de contenu français ont été approchés pour dénigrer le vaccin Pfizer-BioNTech moyennant une rétribution substantielle. L’objectif était de semer le chaos. Cette situation met en lumière les motivations financières sous-jacentes aux campagnes, soulignant ainsi l’importance de lutter contre ce type de financement. YouTube occupe désormais une place cruciale dans la diffusion de l’information.
L’accusation de deepfakes pour discréditer des propos légitimes
Alors que les deepfakes par IA sont souvent associées à la propagation de fausses informations lors des élections ou à la diffamation de personnes, il est important de reconnaître que cette notion peut aussi être utilisée à tort pour discréditer des propos légitimes.
Imaginons une situation où une personne exprime des opinions controversées ou dérangeantes pour certains intérêts. Les adversaires de cette personne pourraient faussement crier au « deepfake », affirmant que les vidéos ou les enregistrements audio des propos en question ont été altérés, même si ce n’est pas le cas. Cette tactique peut être utilisée pour semer le doute sur la véracité des propos tenus et pour discréditer la personne qui les a exprimés.
Ce type de désaveu soulève des défis considérables en matière de confiance et d’intégrité dans le discours public. En accusant à tort les contenus de deepfake, on risque de brouiller la frontière entre ce qui est authentique et ce qui ne l’est pas, jetant ainsi le doute sur la légitimité des informations et des opinions légitimes.
Pour contrer cette forme d’abus, il est essentiel de développer des outils de vérification robustes pour authentifier les contenus multimédias et distinguer les vrais deepfakes des accusations infondées. De plus, une sensibilisation accrue du public aux techniques de manipulation et aux risques associés est nécessaire pour encourager la prudence et la vigilance lors de l’évaluation de la crédibilité des informations.
En fin de compte, la lutte contre les abus potentiels des deepfakes nécessite un équilibre délicat entre la protection contre la désinformation et la préservation de la liberté d’expression. Il est crucial de reconnaître que tout en abordant les défis posés par les deepfakes, nous devons également nous garder de tomber dans le piège de les utiliser à tort pour discréditer des propos légitimes. En Inde, un politicien a affirmé que des enregistrements audio le critiquant étaient des deepfakes, bien qu’une analyse ait suggéré le contraire.
Si vous appréciez nos articles, ne manquez les prochains en vous abonnant à Cosmo Games sur Google News, vous pouvez également nous suivre sur X (ex Twitter). N'hésitez pas à partager vos réactions, commentaires ou remarques dans les commentaires, afin d'enrichir le contenu, de mieux vous comprendre et intégrer les différents points de vue. Un partage sur les réseaux sociaux nous aide également beaucoup, merci pour votre soutien !
Sur X, le nombre de fausses informations est devenu hallucinant. On voit trop d’images générées par IA, pour certains sujets ça passe mais pas pour la politique ou actualité.
Bref très difficile de s’y retrouver. Je préfère les médias traditionnels, si on diversifie ses sources, c’est le meilleur moyen pour être bien informé.
En revanche, il y a beaucoup trop d’articles accessibles uniquement avec un abonnement. Je comprends que c’est nécessaire pour le financement, mais cela l’information de qualité moins accessible. C’est un point qu’il serait bon de changer, peut être par l’intermédiaire d’aide financière.