YouTube étend la détection de faux IA

YouTube étend la détection de faux IA

Crédit image : Photo de Noam Galai/Getty Images pour YouTube

Mercredi, YouTube a annoncé l’extension de son programme pilote visant à identifier et gérer les contenus générés par IA qui imitent la ressemblance, y compris les visages, des créateurs, artistes et autres personnalités.

L’entreprise a également exprimé son soutien au NO FAKES ACT, une législation visant les répliques générées par IA qui simulent l’image ou la voix de quelqu’un pour induire en erreur et produire du contenu nuisible.

YouTube a collaboré à ce projet avec ses sponsors, les sénateurs Chris Coons (D-DE) et Marsha Blackburn (R-TN), ainsi que des groupes industriels comme la Recording Industry Association of America (RIAA) et la Motion Picture Association (MPA). Coons et Blackburn doivent réintroduire la législation lors d’une conférence de presse mercredi.

YouTube reconnaît le potentiel et les risques de l’IA dans l’expression créative

Dans un article de blog, YouTube a souligné son soutien continu, reconnaissant que bien que l’IA ait le potentiel de « révolutionner l’expression créative », elle présente également des risques importants.

« Nous reconnaissons les risques associés au contenu généré par l’IA, notamment son potentiel de mauvaise utilisation et la création de contenu nuisible. Les plateformes doivent assumer leur responsabilité et aborder ces défis de manière proactive », a déclaré YouTube dans l’article.

« Le NO FAKES Act propose une approche intelligente en équilibrant protection et innovation, en donnant aux individus le pouvoir de signaler les ressemblances générées par l’IA qu’ils estiment devoir être supprimées. Ce processus de notification est crucial car il aide les plateformes à différencier le contenu autorisé des faux nuisibles — sans cela, les plateformes ne peuvent pas prendre de décisions éclairées », a ajouté l’entreprise.

YouTube a lancé son système de détection de ressemblances en collaboration avec la Creative Artists Agency (CAA) en décembre 2024.

La technologie de détection de ressemblances améliore le système Content ID de YouTube

La nouvelle technologie s’appuie sur le système Content ID existant de YouTube, qui détecte le contenu protégé par des droits d’auteur dans les vidéos téléchargées par les utilisateurs. Comme Content ID, le système de détection de ressemblances vise à identifier automatiquement le contenu enfreignant les règles — dans ce cas, les visages ou voix générés par IA, a expliqué YouTube plus tôt cette année.

Pour la première fois, YouTube partage les noms des premiers testeurs pilotes du programme, qui incluent des créateurs populaires tels que MrBeast, Mark Rober, Doctor Mike, le Flow Podcast, Marques Brownlee et Estude Matemática.

Pendant la phase de test, YouTube travaillera avec ces créateurs pour affiner et étendre la technologie. Le programme devrait s’élargir à davantage de créateurs au cours de l’année à venir, bien que YouTube n’ait pas précisé quand le système de détection de ressemblances sera disponible de manière plus générale.

En plus du programme pilote, YouTube a également mis à jour ses processus de confidentialité, permettant aux individus de demander la suppression de contenu modifié ou synthétique qui simule leur ressemblance. Il a également introduit des outils de gestion des ressemblances pour aider les utilisateurs à détecter et contrôler la manière dont l’IA les représente sur la plateforme.


Lisez l’article original sur :  TechCrunch

Lisez-en plus :  OpenAI’s Latest Image Generator is Now Accessible to All Users

Share this post

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *