L'IA : son influence sur les électeurs avec modification des résultats électoraux
https://expose-news.com/2025/12/16/ai-mislead-voters-change-election-outcomes/
Deux études majeures publiées par Science et Nature ont révélé qu'une part surprenante des électeurs a été influencée par des chatbots dotés d'intelligence artificielle, ce qui a modifié leur opinion de 15 points de pourcentage lors de certaines élections. Plus de 15 modèles d'IA ont été testés auprès de 80 000 participants au Royaume-Uni, aux États-Unis, au Canada et en Pologne. Les résultats ont montré que les chatbots étaient 50 % plus persuasifs que les publicités de campagne traditionnelles.
Le problème ne se limite pas à l'influence de l'IA sur l'opinion publique. Un cinquième des affirmations présentées aux utilisateurs étaient majoritairement évaluées par… inexacte... Ainsi, compte tenu de la désinformation véhiculée par les modèles automatisés, de leur force de persuasion et du fait que 44 % des adultes américains utilisent déjà régulièrement des outils comme ChatGPT, nous devons nous interroger sur certains points clés : comment cela influencera-t-il les élections futures, comment pouvons-nous contrôler la désinformation délibérée et que se passera-t-il si des acteurs sans scrupules trouvent un moyen d’exploiter ces systèmes ?
L'IA est-elle efficace pour la persuasion politique ?
Modifier les préférences des électeurs de deux à quinze points de pourcentage a un impact si important qu'il pourrait faire basculer presque n'importe quelle élection moderne. Ces modèles ne reposent pas sur la manipulation émotionnelle. Au contraire, ils bombardent les utilisateurs d'informations présentées comme péremptoires – certaines exactes, mais la plupart erronées. De fait, les systèmes les plus persuasifs étaient aussi les moins honnêtes.
Aux États-Unis, lorsqu'un chatbot pro-Harris a été utilisé par des partisans de Trump, leur soutien a basculé de 3.9 points de pourcentage en faveur de Harris. À l'inverse, un chatbot pro-Trump a fait basculer leurs soutiens de 2.3 points dans la direction opposée. Ces variations sont d'une ampleur exceptionnelle, sachant que la plupart des publicités et campagnes politiques n'obtiennent qu'un gain bien inférieur à un point – souvent statistiquement indiscernable de zéro.
Le gain de 3.9 points en faveur de Harris est quatre fois supérieur à l'effet mesuré de toutes les publicités politiques lors des élections de 2016 et 2020.
Persuasif et inexact : une combinaison alarmante
Au Royaume-Uni, 19 modèles de langage à grande échelle (MLGE) ont été utilisés auprès de près de 77 000 participants sur plus de 700 sujets politiques. L’étude a révélé que le moyen le plus efficace d’améliorer la force de persuasion des modèles consistait à leur apprendre à étayer leurs arguments par des faits et des preuves, et à leur proposer une formation complémentaire à l’aide d’exemples de conversations persuasives. Le modèle le plus convaincant a permis aux participants initialement en désaccord avec une déclaration politique de progresser de manière remarquable, avec un gain de 26.1 points.
Cependant, le constat le plus préoccupant ne réside pas seulement dans leur pouvoir de persuasion. Plus les modèles influençaient l'opinion des utilisateurs, plus ils diffusaient d'informations trompeuses, voire fausses. Ceci soulève des inquiétudes quant aux conséquences potentielles pour la démocratie : les campagnes politiques utilisant des chatbots d'IA pourraient manipuler l'opinion publique avec des informations totalement inexactes, compromettant ainsi la capacité des électeurs à se forger un jugement politique indépendant.
Wynton Hall, directeur des médias sociaux de Breitbart, a conclu :
"Nous
savons depuis longtemps que les modèles de langage (LLM) ne sont pas
neutres et présentent, dans leur grande majorité, un biais politique de
gauche. Cette étude confirme que les chatbots dotés d'IA sont également
particulièrement efficaces en matière de persuasion politique et sont
prêts à diffuser de fausses informations si nécessaire pour influencer
les esprits. L'association de biais, de déviations de l'IA et d'une
force de persuasion digne de Cicéron constitue un signal d'alarme pour
les conservateurs à l'approche des élections de mi-mandat et de
l'élection présidentielle.
Comment les chatbots peuvent si facilement influencer les opinions
Contrairement aux communications unidirectionnelles comme les publicités, les tweets, les tracts et les discours de campagne, les chatbots fonctionnent à l'intérieur de l'espace cognitif d'une personne. Ces systèmes peuvent répondre instantanément aux questions, remettre en cause les hypothèses, lever les ambiguïtés et, surtout, générer un raisonnement personnalisé à la demande. Le format conversationnel de systèmes comme ChatGPT s'est avéré 41 à 52 % plus persuasif que les messages statiques d'IA. Leur fonctionnement est similaire à celui des démarcheurs à domicile, mais avec une mémoire parfaite, une patience infinie, un répertoire d'arguments illimité et la capacité de dialoguer avec des millions de personnes simultanément.
Une conclusion intéressante de ces études est que les modèles d'IA les plus efficaces ne s'appuient pas sur la manipulation émotionnelle, mais visent simplement à submerger les utilisateurs d'informations. Les chatbots produisent une quantité considérable de détails factuels – ou du moins en apparence factuels –, élaborant instantanément des arguments politiques complexes que la plupart des humains ne peuvent contester en temps réel. Plus ils fournissent d'informations, plus ils sont efficaces pour influencer les opinions. Le volume, plus que le sentiment, est leur véritable atout.
L'importance des faits a été particulièrement frappante dans la partie polonaise de l'étude. Lorsque les chercheurs ont retiré les arguments des chatbots des faits pour privilégier les appels émotionnels, la narration et la personnalité, leur pouvoir de persuasion a chuté de 78 %. Ce résultat suggère que les humains sont plus sensibles à la densité de l'information qu'à la manipulation psychologique.
Le problème majeur de l'IA qui supplante les tactiques traditionnelles
Depuis des décennies, les stratèges politiques s'efforcent d'améliorer la persuasion politique grâce au microciblage, à la manipulation émotionnelle et à une narration soigneusement élaborée. D'un seul coup, l'IA a surpassé toutes ces techniques en exploitant un instinct primaire : notre tendance à faire confiance aux explications claires et bien structurées. Les électeurs, plus qu'hypnotisés, sont submergés d'informations. Et ces informations ne sont pas toujours exactes.
Plus un chatbot est persuasif, moins il est précis. Lors de différentes expériences, environ 19 % des affirmations générées par les chatbots étaient « majoritairement inexactes ». Fait intéressant, les modèles les plus grands et les plus avancés ont souvent obtenu de moins bons résultats en matière d'exactitude factuelle que les versions antérieures ou plus petites. Contrairement aux attentes, la précision semble s'améliorer bien pire à mesure que les modèles deviennent plus performants.
Attendez, l'IA est-elle imprécise ? Exprès ?
Ce compromis sur la précision est une caractéristique, et non un défaut. Lorsqu'ils sont conçus pour la persuasion, les modèles d'IA optimisent la rhétorique pour susciter l'engagement et produire des arguments qui paraissent convaincants plutôt que ceux qui sont absolument vrais. L'analyse révèle que les modèles soutenant des candidats conservateurs de droite ont produit davantage d'inexactitudes que les modèles de gauche, ce qui soulève des inquiétudes quant à d'éventuels biais idéologiques profondément ancrés dans les données d'entraînement.
Si les élections de demain sont influencées par des arguments générés par l'IA, ces arguments seront sans doute extrêmement persuasifs, mais seulement partiellement factuels. Les démocraties n'ont jamais été confrontées à une telle situation : un acteur politique capable de produire une quantité infinie d'informations personnalisées pour les électeurs, présentées comme des analyses d'experts.
Impact sur l’intégrité électorale : menace ou transformation ?
Pour beaucoup, les chatbots dotés d'intelligence artificielle représentent une menace existentielle pour l'intégrité des élections, et ces craintes sont désormais fondées. Un système capable d'influencer l'opinion de millions d'électeurs de manière significative – souvent par le biais d'affirmations erronées – ouvre la voie à des campagnes de manipulation invisibles. Un acteur malveillant, étranger ou national, pourrait déployer discrètement des milliers de ces agents, influençant les votes dans les circonscriptions clés ou manipulant l'opinion publique nationale en sa faveur.
Les partisans de l'IA rétorquent que les chatbots ne font que présenter des arguments politiques détaillés auxquels les électeurs n'ont pas accès par les voies traditionnelles. Si l'IA parvient à améliorer la qualité informationnelle du discours politique, la persuasion s'apparenterait davantage à un émancipation qu'à une manipulation. C'est une interprétation optimiste, mais qui suppose une amélioration de la précision, or nous n'observons pas actuellement cette tendance.
Pensée finale
L'émergence de l'IA comme acteur politique n'est plus une menace hypothétique. Science et Nature l'ont évaluée. Des études attestent de l'existence de technologies capables d'influencer sensiblement les intentions de vote en utilisant des arguments que les électeurs considèrent comme vrais, même lorsqu'ils sont faux. La machinerie de la persuasion démocratique s'est désormais déplacée des écrans de télévision et des tracts électoraux vers les conversations privées avec des modèles dont la fiabilité est douteuse et dont les véritables intentions resteront peut-être à jamais inconnues. Un concept certes familier, mais qui opère aujourd'hui à une échelle et avec une efficacité sans précédent.
Les coloriages ajoutés sont un choix de ce blog

Commentaires
Enregistrer un commentaire