# AI-GENERATED FAKE NEWS IS COMING TO AN ELECTION NEAR YOU
Plusieurs années avant la sortie de ChatGPT, mon groupe de recherche, le Laboratoire de prise de décision sociale de l’Université de Cambridge, s’est demandé s’il était possible d’avoir des réseaux neuronaux générer de la désinformation. Pour ce faire, nous avons formé le prédécesseur de ChatGPT, GPT-2, sur des exemples de théories du complot populaires, puis nous lui avons demandé de générer de fausses informations pour nous. Il nous a donné des milliers de reportages trompeurs mais qui semblaient plausibles. Quelques exemples : « Certains vaccins sont chargés de produits chimiques et de toxines dangereux », et « Des fonctionnaires ont manipulé les prix des actions pour cacher des scandales. » La question était : qui croirait ces affirmations ?
## LA CRÉATION DU MIST ET LES RÉSULTATS DE L’ÉTUDE
Nous avons créé le premier outil psychométrique pour tester cette hypothèse, que nous avons appelé le Test de susceptibilité à la désinformation (MIST). En collaboration avec YouGov, nous avons utilisé les titres générés par l’IA pour tester la susceptibilité des Américains à la désinformation générée par l’IA. Les résultats étaient préoccupants : 41 % des Américains ont pensé à tort que le titre sur le vaccin était vrai, et 46 % ont pensé que le gouvernement manipulait le marché boursier. Une autre étude récente, publiée dans la revue Science, a montré non seulement que GPT-3 produit une désinformation plus convaincante que les humains, mais aussi que les gens ne peuvent pas faire la distinction de manière fiable entre la désinformation générée par des humains et celle générée par l’IA.
## LA PROPAGATION DE LA DÉSINFORMATION GÉNÉRÉE PAR L’IA
Ma prédiction pour 2024 est que la désinformation générée par l’IA fera son apparition lors des prochaines élections, et vous ne vous en rendrez probablement même pas compte. En fait, vous avez peut-être déjà été exposé à certains exemples. En mai 2023, une fausse histoire virale sur un attentat au Pentagone a été accompagnée d’une image générée par l’IA montrant un grand nuage de fumée. Cela a provoqué un tollé public et même une baisse du marché boursier. Le candidat à la présidentielle républicaine Ron DeSantis a utilisé de fausses images de Donald Trump en train d’embrasser Anthony Fauci dans le cadre de sa campagne politique. En mélangeant des images réelles et générées par l’IA, les politiciens peuvent brouiller les frontières entre fait et fiction, et utiliser l’IA pour renforcer leurs attaques politiques.
## L’ÉVOLUTION DE LA PROPAGANDE AVEC L’IA
Avant l’explosion de l’IA générative, les entreprises de cyberpropagande dans le monde entier devaient rédiger elles-mêmes des messages trompeurs et employer des usines de trolls humains pour cibler les gens à grande échelle. Avec l’assistance de l’IA, le processus de génération de titres de fausses nouvelles trompeuses peut être automatisé et utilisé comme arme avec peu d’intervention humaine. Par exemple, le microciblage – la pratique de cibler les gens avec des messages basés sur des données numériques, telles que leurs « J’aime » sur Facebook – était déjà une préoccupation lors des élections précédentes, malgré son principal obstacle étant le besoin de générer des centaines de variantes du même message pour voir ce qui fonctionne sur un groupe de personnes donné. Ce qui était autrefois un travail intensif et coûteux est maintenant bon marché et facilement disponible sans barrière à l’entrée. L’IA a démocratisé efficacement la création de la désinformation : toute personne ayant accès à un chatbot peut désormais alimenter le modèle sur un sujet particulier, que ce soit l’immigration, le contrôle des armes, le changement climatique, ou les problématiques LGBTQ+, et générer des dizaines de fausses nouvelles hautement convaincantes en quelques minutes. En fait, des centaines de sites d’information générés par l’IA sont déjà en train de se développer, propageant des histoires et des vidéos mensongères.
## L’IMPACT DE LA DÉSINFORMATION GÉNÉRÉE PAR L’IA SUR LES PRÉFÉRENCES POLITIQUES
Pour tester l’impact d’une telle désinformation générée par l’IA sur les préférences politiques des gens, des chercheurs de l’Université d’Amsterdam ont créé une vidéo truquée d’un politicien offensant sa base électorale religieuse. Par exemple, dans la vidéo, le politicien plaisantait : « Comme dirait le Christ, ne me crucifiez pas pour ça. » Les chercheurs ont découvert que les électeurs chrétiens religieux qui ont regardé la vidéo truquée avaient des attitudes plus négatives envers le politicien que ceux du groupe témoin.
## LA MENACE DE L’IA SUR LES ÉLECTIONS DÉMOCRATIQUES
Il est une chose de tromper les gens avec de la désinformation générée par l’IA dans le cadre d’expériences. C’en est une autre d’expérimenter avec notre démocratie. En 2024, nous verrons davantage de deepfakes, de clonage vocal, de manipulation d’identité et de fausses nouvelles produites par l’IA. Les gouvernements limiteront sérieusement – voire interdiront – l’utilisation de l’IA dans les campagnes politiques. Car si ce n’est pas le cas, l’IA sapera les élections démocratiques.
Pour plus d’informations sur le sujet, veuillez consulter les liens suivants :
– [Étude du MIST](https://link.springer.com/article/10.3758/s13428-023-02124-2)
– [Sondage YouGov sur la désinformation](https://today.yougov.com/topics/politics/articles-reports/2023/06/29/americans-distinguish-real-fake-news-headline-poll)
– [Étude sur la désinformation publiée dans Science](https://www.science.org/doi/10.1126/sciadv.adh1850)
– [Démontage d’une fausse histoire par AFP](https://factcheck.afp.com/doc.afp.com.33FV4BU)
– [Analyse de Newsguard sur la désinformation](https://www.newsguardtech.com/misinformation-monitor/march-2023)
– [Recherche de l’Université d’Amsterdam](https://journals.sagepub.com/doi/full/10.1177/1940161220944364)