Intelligence artificielle : quand la désinformation devient un jeu d’enfant

Intelligence artificielle : quand la désinformation devient un jeu d’enfant

De Floride à Moscou, John Mark Dougan a opéré une bien étrange reconversion. Cet ancien shérif américain, aujourd’hui sous la protection du Kremlin, est devenu le coordinateur d’un tentaculaire réseau de désinformation prorusse, comme l’a révélé NewsGuard, start-up spécialisée dans la détection de sites peu fiables. DCWeekly, Chicago Chronicle… 167 sites se faisant passer pour des médias en Europe et aux Etats-Unis afin de polariser ces citoyens, déligitimer leurs élections et justifier l’invasion russe présentent de signes de connexion très forts au réseau de Dougan, malgré les dénégations de ce dernier. Un cas révélateur de l’impact explosif de l’IA générative dans cette bataille. “Il fallait auparavant des dizaines ou des centaines de personnes pour bâtir de tels dispositifs. Avec l’IA, un seul individu peut le faire”, met en garde Chine Labbé, rédactrice en chef et vice-présidente de NewsGuard.

De tels cas se multiplient. Fin 2022, Meta a détecté un vaste réseau de désinformation russe, Doppelgänger, utilisant des sites “clones” imitant de vrais médias. Plus récemment, des enregistrements audio truqués, enfantins à produire avec l’IA, se sont invités en politique.

En Slovaquie, un de ces montages laissait croire que le candidat démocrate Michal Simecka voulait truquer l’élection et… augmenter le prix de la bière. Impossible d’évaluer l’impact que ces deep fakes ont eu, mais à l’issue d’un scrutin serré, Simecka a perdu l’élection. Des électeurs américains du New Hampshire ont, quant à eux, eu la surprise de recevoir “de faux messages imitant la voix de Joe Biden et leur conseillant de ne pas voter aux primaires”, pointe Camille Grenier, directeur exécutif du Forum sur l’information et la démocratie.

Ces deep fakes peuvent induire les électeurs en erreur, nuire à la réputation de personnalités politiques en les faisant apparaître dans des situations compromettantes, mais aussi “exacerber les tensions sociales, en véhiculant de fausses déclarations qui peuvent envenimer les conflits existants”, met en garde Sonia Cissé, avocate associée spécialiste des technologies et de la protection des données au cabinet Linklaters.

“Une période de réserve sur les réseaux sociaux”

Les fake news ne sont qu’une part du problème. La viralité artificielle donnée à certains récits, plus ou moins authentiques, en est une autre facette préoccupante, car elle donne une vision tordue de l’opinion publique et de la société. Ce phénomène n’est pas neuf. Depuis des années, les désinformateurs s’appuient sur des programmes informatiques appelés bots pour gérer des armées de faux comptes et faire gonfler à l’envi tendances ou polémiques. L’IA générative risque cependant de compliquer la tâche des plateformes qui tentent de traquer et de fermer ces comptes au comportement peu naturel : en leur permettant de publier régulièrement des contenus “inédits” et variés, l’IA rend en effet l’activité des bots plus proche de celle des humains authentiques.

En Europe, la majeure partie de ces opérations de désinformation viennent de Russie et la France en est l’une des principales cibles. De nombreuses actions peuvent néanmoins protéger les Européens, en particulier en période d’élections. Président de Make.org et coauteur d’un récent rapport sur le sujet, Axel Dauchez préconise dix mesures pour renforcer la démocratie européenne à l’heure de l’IA, parmi lesquelles une forme de “période de réserve sur les réseaux sociaux”, la création d’un détecteur de contenus IA dont pourraient se servir les médias et la mise en place de codes de conduite relatif aux “contenus artificiels” pour les partis, les médias mais aussi “les influenceurs ayant un nombre d’abonnés important”.

La sensibilisation des Européens à ces nouvelles menaces est cruciale. D’abord, en les informant davantage sur les opérations en cours – Viginum le fait de plus en plus. Ensuite, en recourant au prebunking, prône l’historien David Colon, auteur de La Guerre de l’information (Tallandier) : “L’idée est d’exposer aux citoyens les techniques de manipulation dont ils pourraient faire l’objet avant qu’ils n’y soient confrontés, cela renforce la résilience psychologique.” Depuis un an, les démocraties de l’UE se réveillent. Il était temps.