YouTube ha ampliado su herramienta de detección de imágenes 'deepfakes' impulsadas por inteligencia artificial (IA) para políticos y periodistas, que ahora podrán comprobar si se está utilizando su imagen en vídeos sin permiso.
La plataforma lanzó esta herramienta en octubre del pasado año como una forma de ayudar a los creadores de contenido a combatir los 'deepfakes' que usan su imagen y su voz en vídeos para los que no han dado su consentimiento.
Así, se trata de una opción para supervisar la manera en que aparece la imagen de un creador de contenido, creada o modificada con IA, para ayudar a proteger su identidad, sobre todo en aquellos vídeos manipulados para reflejen una visión que no comparte.
Ahora, YouTube ha extendido esta herramienta para funcionarios gubernamentales, políticos y periodistas, como parte de una prueba piloto, de manera que puedan cerciorarse de que no se está utilizando su imagen en vídeos de 'deepfake' sin permiso.
Como ha explicado la compañía en un comunicado en su blog, esta herramienta funciona de forma similar a Content ID, el sistema de YouTube para detectar y proteger contenidos con derechos de autor. En este caso, se centra en la detección de imágenes y en buscar rostros de personas que se encuentren dentro del programa de detección de 'deepfakes'.
En caso de que este sistema encuentre una coincidencia, la persona del programa puede solicitar que se elimine el contenido de la plataforma, aunque esta solicitud deberá ser aprobada por YouTube, en base a sus políticas de privacidad.
En este sentido, se ha de tener en cuenta que la herramienta ofrece una forma eficaz de identificar posibles suplantaciones no autorizadas, sin embargo, no garantiza su eliminación. Esto se debe a que, en el caso de personajes públicos, YouTube protege la "libre expresión" preservando contenidos como la parodia y la sátira "incluso cuando se usan para criticar a líderes mundiales o figuras influyentes".
Con todo ello, para participar en el programa de detección de 'deepfakes' los políticos y periodistas interesados deberán verificar su identidad antes de inscribirse, para lo que deberán compartir un vídeo suyo y una identificación oficial. Así, estos datos se utilizarán para la verificación de identidad exclusivamente, no para entrenar modelos de IA generativa de Google.