Créer des images pornographiques avec l’IA pourrait vous envoyer en prison
Créer des images pornographiques à l’aide de l’intelligence artificielle pourrait vous envoyer en prison. Un nouveau projet de loi cherche punir le contenu sexuel explicite généré par l'IA. Les gens qui décident de produire contrefaçons profondes La pornographie peut être passible d'une amende ou d'une peine de prison, selon la gravité de l'infraction.
La nouvelle initiative du gouvernement britannique fait partie de son programme de sécurité en ligne. Le ministère de la Justice a annoncé que Produire des deepfakes explicites d'une personne sans son consentement est un crime. Les « personnes méprisables » qui utilisent cette technologie pour générer ce contenu et le partager sur internet, Ils feront face à des poursuites judiciaires et à une amende.
« Si quelqu'un crée un deepfake sexuellement explicite, même s'il n'a pas l'intention de le partager mais veut simplement provoquer l'alarme, l'humiliation ou la détresse de la victime, il commettra une infraction pénale », a déclaré le bureau gouvernemental. La nouvelle loi imposera des sanctions plus sévères à ceux qui partagent ce contenu sur Internet. Au cas où Une image pornographique générée par l'IA devient virale, l'auteur sera envoyé en prison.
La modification de la loi sur la sécurité en ligne permettra à la justice de poursuivre un contrevenant de deux délits : la création d'images et leur partage. Le ministère de la Justice affirme que. Les faux contenus provenant d’algorithmes sont devenus courants au cours des dernières années. Le cas le plus récent est celui de Taylor Swift, victime de deepfakes sexuels devenus viraux sur X (Twitter) en janvier.
Le Royaume-Uni et les entreprises technologiques, à la recherche d'images pornographiques générées avec l'IA
La nouvelle proposition de loi ira au Parlement pour approbation, qui a qualifié il y a quelques mois le partage d’images sexuelles en ligne de crime. Les contrefaçons profondes Ils ne sont pas seulement dans la ligne de mire du Royaume-Uni, mais aussi d’autres pays qui étudient les mécanismes juridiques pour mettre fin à ce type d’infractions.
« C'est un autre exemple de la manière dont certaines personnes cherchent à dégrader et à déshumaniser les autres, en particulier les femmes. Et cela peut avoir des conséquences catastrophiques si le matériel est largement partagé », a déclaré Laura Farris, ministre des Victimes et de la Sauvegarde. « Cette loi envoie un message très clair : Produire ce matériel est immoral, souvent misogyne et constitue un crime« .
Yvette Cooper, secrétaire d'État fantôme à l'Intérieur, a ajouté que superposer le visage de quelqu'un sur des photographies ou des vidéos à caractère sexuel Il s’agit d’une grave violation de votre vie privée et de votre autonomie.. « Il est essentiel que la police et les procureurs soient dotés de la formation et des outils nécessaires pour appliquer rigoureusement ces lois afin d'empêcher les auteurs d'actes criminels d'agir en toute impunité. »
L'explosion de L'intelligence artificielle a facilité la création de contenu à caractère sexuel explicite, malgré les garde-fous mis en place par la technologie. Des sociétés comme Nikon, Sony et Canon ont proposé une signature numérique pour lutter contre la prolifération des contrefaçons profondes. D'autre part, Google développe un outil pour identifier les images produites par les modèles d'IA.
Même si L'origine du deepfake remonte aux images pornographiques partagées par Reddit en 2017, son application s'est étendue à d'autres domaines. La puissance des modèles linguistiques nous a permis de créer des images réalistes d’hommes politiques ou de personnalités publiques afin de manipuler l’opinion.