Les « deepfakes » produits par l’intelligence artificielle (IA) qui imitent les politiciens et les superstars sont considérablement plus répandus que les cyberattaques assistées par l’IA, d’après une étude révolutionnaire réalisée par la division DeepMind de Google. Cette étude représente la première tentative de DeepMind de quantifier les utilisations malveillantes les plus courantes de la technologie de pointe de l’IA.

L’étude a révélé que la création d’images, de vidéos et de sons réalistes mais faux de numéros publics est presque deux fois plus fréquente que la deuxième utilisation abusive de l’IA générative : la création de fausses informations à l’aide d’outils textuels tels que les chatbots pour diffuser des informations erronées sur le web. L’objectif premier de ceux qui utilisent abusivement les outils d’IA générative est toujours d’influencer l’opinion publique, une tendance qui représente 27 % des cas examinés. Cette constatation renforce les inquiétudes quant à l’impact que les « deepfakes » pourraient avoir sur les élections dans le monde entier.

Au cours des derniers mois, des deepfakes du Premier ministre du Royaume-Uni, Rishi Sunak, et d’autres leaders mondiaux ont été diffusés sur des programmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence possible sur les électeurs, en particulier à l’approche des élections générales au Royaume-Uni. Malgré les efforts déployés par les systèmes de médias sociaux pour étiqueter ces contenus ou s’en débarrasser, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.

Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné que l’étude avait permis de découvrir que les articles générés par l’IA et contaminant des informations librement accessibles pourraient « fausser notre compréhension collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le déroulement du vote n’est pas clair, les risques à long terme pour la démocratie sont considérables.

Cette étude de DeepMind, dirigée par Sir Demis Hassabis, s’inscrit dans le cadre d’un travail d’évaluation des risques potentiels associés aux équipements d’IA générative, qui ont été rapidement développés et diffusés par les grandes entreprises technologiques à la recherche de gains. Alors que des ressources telles que ChatGPT d’OpenAI et Gemini de Google deviennent de plus en plus répandues, les entreprises d’IA surveillent progressivement la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.

En mai, OpenAI a publié une enquête indiquant que des entités liées à la Russie, à l’Extrême-Orient, à l’Iran et à Israël avaient utilisé ses outils pour créer et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « Il y a eu beaucoup de questions compréhensibles concernant des cyberattaques assez sophistiquées facilitées par ces outils puissants. Ce que nous avons vu, en revanche, ce sont des utilisations abusives assez courantes de la GenAI [telles que les deepfakes] qui pourraient passer un peu plus inaperçues ».

Les experts de Google DeepMind et de Jigsaw ont examiné environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces situations provenaient des plateformes de médias sociaux X et Reddit, ainsi que de blogs sur internet et de reportages dans les médias. L’évaluation a montré que la plupart des cas d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise spécialisée minimale, permettant ainsi à une plus large sélection de mauvais acteurs célèbres d’utiliser l’IA générative.

Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain financier. Il s’agit notamment de fournir des services pour créer des « deepfakes », de générer des représentations nues de personnes authentiques ou d’utiliser l’IA pour produire de grands volumes de contenu, y compris de faux articles de presse.

Les conclusions de l’enquête de DeepMind auront une incidence sur la manière dont l’organisation améliore ses évaluations pour vérifier la sécurité des conceptions d’IA. On espère que cette recherche conditionnera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients liés à l’IA générative.

La technologie de l’IA continuera d’évoluer, et il est essentiel de comprendre et d’atténuer ses utilisations néfastes. L’étude de DeepMind éclaire le paysage actuel de l’utilisation abusive de l’IA, agence SEO en soulignant la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les procédures démocratiques des impacts probablement considérables des deepfakes et de la désinformation créés par l’IA.