Le flot X de « deepfakes » pornographiques de Taylor Swift (Twitter) : la violence contre les femmes à l'ère de l'IA

Le flot X de « deepfakes » pornographiques de Taylor Swift (Twitter) : la violence contre les femmes à l’ère de l’IA

Plusieurs images sexuellement explicites représentant le visage de Taylor Swift ont inondé les réseaux cette semaine. Ils sont contrefaçons profondes, faux contenus générés avec l’intelligence artificielle. L’une des photos devenues virales sur X (anciennement Twitter) a été vue davantage 47 millions de fois avant d’être supprimé. Le scandale a révélé l’un des dangers des nouveaux outils, prévenus depuis des années par les experts, qui touchent particulièrement les femmes.

Il a fallu environ 17 heures à X pour suspendre le compte – d’ailleurs d’un utilisateur « vérifié » – qui a publié le matériel en question. L’image a déjà été republiée plus de 24 000 fois et a recueilli des centaines de milliers de likes. « Taylor Swift AI » est devenu une tendance qui a stimulé la diffusion du contenu.

« La publication d’images de nus non consensuels (NCN) est strictement interdite sur X et nous avons une politique de tolérance zéro à l’égard de tels contenus », a ensuite déclaré le réseau social d’Elon Musk dans un communiqué. Mais le problème dépasse cette plateforme.

Ces contrefaçons profondes de Taylor Swift, par exemple, ont été diffusés pour la première fois sur Telegram. 404 Media a rapporté que ces images provenaient d’un groupe sur cette application de messagerie, où les utilisateurs partagent des images explicites de femmes générées à l’aide de l’intelligence artificielle.

Cette fois, c’était Taylor Swift, mais la pratique fait déjà plusieurs victimes. Ce mois, NBCActualités détecté contrefaçons profondes images pornographiques d’une trentaine de célébrités féminines. Ils n’ont pas eu à faire une enquête très exhaustive : il leur suffit de chercher sur Google le nom de l’artiste à côté du terme «faux profond».

L’affaire Taylor Swift comme preuve des dégâts de contrefaçons profondes

L’intelligence artificielle générative est venue promouvoir une pratique violente qui se développe depuis des années. Sensity AI, une société basée à Amsterdam qui se consacre à la détection des faux contenus, avertissait déjà en 2019 que 96 % des vidéos faux profond sur Internet, ils étaient pornographiques. Et que la majorité avait des femmes comme victimes.

Entre 2018 et 2020, les fausses vidéos disponibles sur Internet – et pas seulement pornographiques – ont doublé tous les six mois. Avec les nouveaux outils d’intelligence artificielle générative, on suppose une croissance considérable de la diffusion.

Cela ne concerne pas seulement Taylor Swift et d’autres artistes célèbres. Sensity AI a également détecté en 2020 que au moins 100 000 contrefaçons profondes des images pornographiques de femmes ont été diffusées dans des groupes Telegram. Les utilisateurs de ces chaînes ont alors déclaré avoir utilisé des robots pour générer le contenu. Avec ces outils, ils ont créé contrefaçons profondes en utilisant des photos que de vraies femmes avaient postées sur leurs réseaux sociaux.

Un scandale a éclaté en septembre dernier à Almendralejo, en Espagne. Plus de 20 filles entre 11 et 17 ans Ils ont rapporté avoir généré des images nues d’eux avec des outils d’intelligence artificielle. Le matériel a été distribué via Telegram et WhatsApp, a rapporté le BBC.

Reality Defender, une société de cybersécurité, a déclaré au New York Times que les images de Taylor Swift ont presque certainement été créées grâce à un modèle de diffusion. C’est la technologie qui alimente plusieurs des nouveaux outils de génération d’images les plus connus, tels que ceux d’OpenAI, Google ou Midjourney. Ben Colman, PDG de Reality Defender, a expliqué qu’il existe actuellement Plus de 100 000 applications et modèles accessibles au public.

«Ce qui est arrivé à Taylor Swift n’a rien de nouveau. Depuis des années, les femmes sont la cible de contrefaçons profondes sans leur consentement », a déclaré Yvette D. Clarke, députée démocrate américaine. «Et avec les progrès de l’intelligence artificielle, la création contrefaçons profondes « C’est plus facile et moins cher. »a écrit dans X. Il existe plusieurs États dans ce pays qui restreignent ce type de contenu, mais la législation fédérale est limitée à cet égard.

Que font les grandes entreprises technologiques ?

Les moteurs de recherche donnent la priorité aux deepfakes dans leurs résultats

Les outils les plus connus, comme ceux de Google et d’OpenAI, ne permettent pas la création de contenus sexuellement explicites ou utilisant l’identité de personnes connues – comme des hommes politiques ou des artistes. Mais les grandes entreprises technologiques ont une grande influence sur la diffusion des contrefaçons profondes comme celui de Taylor Swift.

Google permet aux victimes de demander la suppression de ce contenu, mais ne recherche ni ne supprime contrefaçons profondes porno de manière proactive. «Nous examinons uniquement les URL que vous ou votre représentant autorisé soumettez dans le formulaire», indiquent-ils dans le modèle de demande.

Microsoft, de son côté, considère contrefaçons profondes pour ne pas dans sa catégorie d’images intimes non consensuelles (NCII). Comme Google, il dispose d’un formulaire permettant aux victimes de signaler le contenu qui apparaît sur Bing.

« La distribution du NCII constitue une grave violation de la vie privée et de la dignité personnelle avec des effets dévastateurs pour les victimes », a déclaré en août dernier Courtney Gregoire, responsable de la sécurité numérique de Microsoft. « Microsoft interdit le NCII sur nos plateformes et services, y compris la demande ou la défense de la production ou de la redistribution d’images intimes sans l’autorisation de la personne concernée », a précisé Grégoire.

Cependant, dans les deux moteurs de recherche, plusieurs portails se présentant comme spécialisés dans contrefaçons profondes pornographique de célébrités. La plupart du contenu provient de femmes. Google et Bing mettent également en avant plusieurs applications pour générer ce type de matériel violent.

Une enquête sur Filaire trouvé en octobre au moins 35 emplacements dédié au porno faux profond. 300 autres publient ce type de matériel sans consentement. Il existe des centaines de milliers de vidéos.

A lire également