IA et élections : les géants de la tech s’engagent pour mieux débusquer les contenus trompeurs

IA et élections : les géants de la tech s’engagent pour mieux débusquer les contenus trompeurs

C’est un pas supplémentaire dans la tentative de limiter l’influence négative de l’intelligence artificielle sur le jeu démocratique. Vendredi 16 février, une vingtaine d’entreprises du secteur des technologies numériques ont annoncé avoir conclu un accord pour collaborer à “empêcher les contenus trompeurs de l’intelligence artificielle d’interférer avec les élections dans le monde entier cette année”, selon l’agence de presse Reuters.

Deux types d’entreprises figurent parmi les signataires de cet accord, annoncé lors de la Conférence sur la sécurité de Munich. D’une part les développeurs de ces modèles d’intelligence artificielle (IA) générative, comme OpenAI, Microsoft ou Adobe. D’autre part les plateformes de réseaux sociaux tels que Meta (propriétaire d’Instagram, Facebook et WhatsApp), TikTok et X (ex-Twitter), qui devront tenter d’empêcher ces contenus préjudiciables d’être diffusés sur leurs sites.

“Aujourd’hui, Meta a signé l’accord technologique destiné à lutter contre la diffusion de contenus trompeurs générés par les IA lors des élections de 2024 […] Nous espérons que l’industrie fera un pas significatif pour relever ce défi”, a réagi Nick Clegg, président des affaires mondiales chez Meta Platforms, sur X.

Today, Meta signed on to the tech accord designed to combat the spread of deceptive AI content in 2024 elections. This work is bigger than any one company & will require a huge effort across industry, government, & civil society. We hope this serves as a meaningful step from…

— Nick Clegg (@nickclegg) February 17, 2024

Eviter les images et sons induisant en erreur

Car l’intelligence artificielle générative, qui permet de créer des images, des vidéos, ou des documents sonores sur demande et à moindre coût, est une arme pouvant bouleverser certains scrutins. Une perspective inquiétante alors que la moitié de la population mondiale sera concernée par au moins une élection (locale, régionale, nationale, supranationale) au cours de l’année 2024, à commencer par les Etats-Unis, l’Union européenne, la Russie ou l’Inde.

Outre-Atlantique, l’intelligence artificielle perturbe déjà la course à la Maison Blanche. Récemment, des opposants au président Joe Biden ont diffusé de faux messages appelant les électeurs à rester chez eux lors des primaires démocrates. Du côté des primaires républicaines, des supporters de Ron De Santis, rival de Donald Trump, ont partagé des vidéos truquées de l’ancien président des Etats-Unis.

L’accord signé par ces entreprises de la tech comporte ainsi l’engagement à développer des “outils de détection d’images, de vidéos et de sons trompeurs générés par l’IA”, détaille Reuters. Il pourrait s’agir d’inclure des filigranes sur les contenus pour les identifier comme étant générés par des IA, ou de le mentionner dans les métadonnées. Les entreprises prévoient également “la création de campagnes de sensibilisation du public pour éduquer les électeurs” à ces nouveaux types de contenus. Elles n’ont toutefois pas mentionné de calendrier, ni expliciter la manière dont chacune mettrait en œuvre ces objectifs.

Un enjeu de sécurité

Signé lors de la 60e Conférence sur la sécurité de Munich, l’accord démontre la préoccupation croissante des dirigeants politiques et d’entreprise à considérer l’intelligence artificielle comme un problème pour des élections démocratiques, si elle n’est pas bien régulée. “Une course à l’IA non réglementée comporte des risques. Les systèmes d’IA ont déjà provoqué divers incidents”, indiquent dans leur rapport de 2024 les organisateurs de ce sommet, réunissant l’élite de la géopolitique mondiale.

“Des modèles réalistes de génération d’images et de vidéos aggravent le problème de la désinformation […] Alors que les décideurs politiques [des divers pays] se concentrent sur leur victoire dans la course à l’IA, ils ne doivent pas sous-estimer ces problèmes”, préviennent-ils.

Leave a Reply

Your email address will not be published. Required fields are marked *