Deepfakes et désinformation : les dérives de l’IA générative

Deepfakes et désinformation : les dérives de l’IA générative

L'IA, bien qu'elle offre de nouvelles possibilités de création de contenu et d'engagement sur les réseaux sociaux, présente des risques importants en termes de désinformation et de manipulation.

 

Par K. A.

Comme pour toute avancée technologique, les outils d'intelligence artificielle générative tels que ChatGPT d'OpenAI, le générateur d'images Midjourney, ou Claude, le chatbot développé par la startup Anthropic, sont utilisés à la fois pour améliorer la productivité et la création, mais aussi, de plus en plus à des fins d'escroquerie et d'abus. Ces contenus audiovisuels artificiellement générés incluent des arnaques électorales par usurpation d'identité de politiciens ou la création d'images non consensuelles de célébrités. Sumsub, une plateforme de vérification d'identité, a publié en septembre dernier un rapport sur la fraude d'identité. Il révèle une augmentation significative des cas de fraude impliquant des deepfakes entre 2022 et 2023.

Dans le haut de tableau, les Philippines affichent une hausse de 4.500%, suivies par le Vietnam (+3.050%) et les ÉtatsUnis (+3.000%). La Belgique (+2.950%), le Japon (+2.800%) et la Roumanie (+1.766%) ne sont pas en reste, enregistrant eux aussi des augmentations marquées. En Afrique, le phénomène est également préoccupant. L'Afrique du Sud a vu ses cas de fraude augmenter de 1.200%, tandis que l'Algérie a enregistré une hausse de 1.000%. En outre, les Émirats Arabes Unis ont été fortement touchés avec une augmentation de 2.200%. Ces dernières années, l'apparition d'outils de deepfake génératif a rendu cette technologie accessible à un public bien plus large. L'engouement pour ces outils, dont certains enregistrent jusqu'à 10 millions de recherches mensuelles, est manifeste. Selon des statistiques sur la fraude par deepfake révélées par Sapio Research (2023), 85% des professionnels de la sécurité estiment que l'utilisation de l'IA générative a contribué à une augmentation des cyberattaques.

D’après une analyse de NewsGuard, plus de 1.065 sites d'informations générées par intelligence artificielle fonctionnent avec peu ou pas de supervision humaine, publiant régulièrement des articles de désinformation dans 16 langues, dont le français, l'anglais, l'arabe et le chinois. Ces sites, souvent dotés de noms génériques tels que 'iBusiness Day' ou 'Daily Time Update', imitent des médias traditionnels tout en fonctionnant avec des articles générés par des bots. Ces fausses informations incluent des allégations fabriquées sur des leaders politiques, de faux décès de célébrités, et des événements fictifs présentés comme actuels. «Certains de ces sites génèrent des centaines, voire des milliers d’articles par jour», a déclaré Jack Brewster, chercheur chez NewsGuard qui a mené l’enquête. «C’est pourquoi nous les considérons comme le prochain grand propagateur de désinformation», note-t-il.

 

Comment l'IA générative contribue-t-elle à la désinformation ?

L'IA générative, grâce à des outils tels que les modèles de langage de grande taille (LLM) et les générateurs de contenu multimédia, facilite la production de désinformation de manière plus rapide, moins coûteuse et à plus grande échelle. Par exemple, des modèles de langage comme ChatGPT peuvent être utilisés pour produire de grandes quantités de texte qui semblent crédibles, citant souvent de faux experts, des sources inventées et des statistiques manipulées. De même, les générateurs d'images et de vidéos comme Midjourney permettent la création de contenus audiovisuels hyperréalistes sans nécessiter d'expertise technique avancée.

Ces outils peuvent générer des deepfakes, des vidéos manipulées qui placent les visages de personnes sur d'autres corps, ou font dire à des figures publiques des propos qu'elles n'ont jamais tenus. Ces contenus peuvent être utilisés pour tromper le public, déstabiliser des processus électoraux, ou même inciter à la violence. Pour lutter contre la désinformation générée par l'IA, certaines plateformes et entreprises technologiques ont mis en place des mécanismes de modération, comme l'utilisation d'étiquettes pour signaler les contenus générés par l'IA ou les systèmes de détection automatique des contenus trompeurs. Cependant, ces méthodes présentent plusieurs limites. De plus, les outils de détection automatique, bien qu'ils puissent analyser des motifs linguistiques ou stylistiques, sont souvent peu fiables et produisent des faux positifs, notamment dans des contextes non anglophones. 

 

 

 

 

Articles qui pourraient vous intéresser

Mardi 15 Octobre 2024

GITEX Global : Mezzour présente à Dubaï les grands axes de la stratégie "Maroc Digital 2030"

Dimanche 13 Octobre 2024

Tesla Optimus : révolution robotique ou simple coup de bluff technologique ?

L’Actu en continu

Hors-séries & Spéciaux