La Asociación Japonesa de Radiodifusores Comerciales (JBA) ha acusado a OpenAI y su modelo Sora 2 de infringir los derechos de autor de algunas compañías productoras de anime y otro tipo de contenido japonesas, al utilizar su material para entrenar sus modelos sin permiso, tras la difusión de vídeos con contenido "idéntico o muy similar".
OpenAI presentó su nueva versión del modelo de IA generativa para creación de vídeos Sora 2 a finales de septiembre, una versión capaz de generar paisajes sonoros de gran realismo y de sincronizar los diálogos y los efectos de sonido, entre otras mejoras.
En este sentido la JBA, que representa a un total de 207 empresas de radiodifusión en Japón, ha denunciado que, desde su lanzamiento, Sora 2 ha permitido generar vídeos con contenido "idéntico" al creado por algunas de estas compañías, que está protegido por derechos de autor, y que se ha difundido por Internet.
Como lo ha explicado en un comunicado, recogido por el medio Asahi Shimbun, se considera que esta práctica es el resultado del aprendizaje del modelo, que ha sido entrenado con contenido original propiedad de las mencionadas empresas durante su fase de desarrollo y formación.
Al respecto, ha manifestado que esta práctica requiere "la autorización previa de los titulares de los derechos" y que, el entrenamiento de servicios de IA generativa con contenidos propiedad de empresas "no solo infringe sus derechos de autor, sino que también constituye un delito civil, como el daño a la marca y la difamación".
Además, la organización también ha puntualizado en el comunicado que esta práctica de OpenAI "podría dañar significativamente" los intereses "económicos y personales" de las partes implicadas en la producción de contenidos comerciales, haciendo referencia a partes como los autores originales, los guionistas, los compositores o el equipo de producción.
Todo ello, "podría destruir la cultura y el ecosistema de producción de contenidos de Japón", ha sentenciado la JBA, al tiempo que ha reflexionado que, más allá del anime, ocurre lo mismo si se generan contenidos similares a programas de noticias emitidos por alguna de sus empresas miembro, "se produciría una importante perturbación de la vida pública".
En este caso, ha hecho hincapié en que este tipo de comportamientos conllevan a la creación de vídeos 'deepfake', así como de imágenes falsas de catástrofes, políticos o discursos de odio. "Este tipo de contenidos podrían avivar la ansiedad pública, distorsionar el buen juicio y socavar gravemente el valor de la información imparcial de las emisoras", que forman parte de la asociación, como ha concluido.
Con todo ello, teniendo en cuenta todo lo mencionado en el comunicado, la JBA ha trasladado algunas consideraciones a tener en cuenta para las empresas de desarrollo de IA como OpenAI. Es el caso de aplicar medidas para impedir el uso no autorizado de los contenidos de otras compañías, tanto para el entrenamiento de los modelos como para la generación de vídeos o imágenes con contenidos similares.
Además de estas pautas, la organización también ha detallado la necesidad de eliminar estos contenidos similares "a pesar de que ya se hayan generado y distribuido", en particular, a través de los sitios web gestionados por los propios desarrolladores.
Finalmente, también ha instado a las empresas desarrolladoras de IA generativa a "responder con sinceridad" a las reclamaciones de las empresas afectadas en relación a la infracción de sus derechos de autor.