YouTube annonce de nouveaux outils pour protéger les artistes et les YouTubers des « deepfakes »
YouTube prend de nouvelles mesures pour protéger les artistes et les youtubeurs contrefaçons profondes audio et vidéo créés avec l’intelligence artificielle. La plateforme vidéo de Google prévoit de lancer deux outils qui permettront de détecter les faux contenus imitant la voix et l’apparence physique des créateurs de contenu et des personnalités en question.
Comme expliqué sur YouTube, l’un d’eux sera dédié exclusivement à détecter les voix des chanteurs simulées synthétiquement. Il a déjà été développé et commencera à être testé au début de l’année prochaine. L’entreprise n’a pas précisé son fonctionnement, même si elle a indiqué qu’elle était intégrée dans ID de contenuvotre utilitaire de gestion des droits d’auteur.
Une fois activé, l’outil détectera automatiquement quand un contenu est publié sur YouTube qui simule le chant du partenaires qui publient leur musique sur le site. Dans le cas où le matériel a été réalisé sans autorisation ou à des fins diffamatoires, les artistes peuvent demander sa suppression.
L’autre fonctionnalité sur laquelle YouTube travaille actuellement, également liée à Content ID, recherche mettre un terme à la contrefaçons profondes avec des visages d’acteurs, de youtubeurs, d’athlètes, de musiciens et de personnalités en tout genreleur permettant d’être détectés automatiquement pour prendre les mesures appropriées. Cette option est encore en développement et on ne sait pas quand elle pourrait être lancée sur la plateforme vidéo, même si tout porte à croire qu’elle n’arrivera pas avant 2025.
YouTube étend sa stratégie contre contrefaçons profondes et simulations d’IA
Ce n’est pas la première fois que YouTube annonce des changements ou de nouveaux outils pour lutter contre la prolifération des contrefaçons profondes et des simulations créées avec l’IA. En novembre 2023, la société a déclaré qu’elle commencerait à accepter les demandes de suppression de contenu créé par l’IA qui « simule des individus identifiables ». De même, il intégrait un outil permettant aux maisons de disques et aux agences de représentation d’artistes de demander la suppression des chansons créées avec l’intelligence artificielle.
Entre-temps, en juillet dernier, YouTube a modifié ses directives de confidentialité pour permettre aux utilisateurs de signaler des vidéos réalistes créées avec l’IA qui incluent contrefaçons profondes. Ces mesures font partie d’une stratégie croissante visant à faire face à l’évolution rapide de l’IA générative. D’autant plus que la viralisation des contenus contrefaits a considérablement augmenté ces dernières années en raison de c’est de plus en plus facile de les créer.
En plus d’offrir une meilleure protection contre contrefaçons profondesYouTube a réaffirmé son intention d’empêcher les sociétés d’IA de former leurs modèles linguistiques avec les vidéos mises en ligne par les créateurs de contenu. Cette question est source de controverse depuis un certain temps. N’oublions pas ça OpenAI a été pris dans l’œil du cyclone pour avoir prétendument utilisé des messages du site pour entraîner Sora. Alors qu’au cours des dernières semaines une nouvelle polémique s’est déclenchée à ce sujet en raison de comportements apparemment similaires de Nvidia, Anthropique et même de Pomme.
Depuis YouTube, ils ont déjà prévenu que gratter des vidéos pour entraîner des modèles d’IA constituent une violation de leurs conditions d’utilisation. Désormais, l’entreprise promet d’affiner ses systèmes pour faciliter la détection de ces activités et même bloquer ceux qui le font.