SoundCloud ha negado haber usado el trabajo subido por los usuarios a la plataforma para entrenar modelos de Inteligencia Artificial (IA), tras haber cambiado los términos de uso de la aplicación sin notificarlo en febrero del año pasado.
Un portavoz de SoundCloud ha afirmado que "nunca se ha utilizado el contenido de artistas para entrenar modelos de IA, ni se ha desarrollado herramientas de IA, ni tampoco se ha permitido que terceros extraigan o utilicen el contenido de la aplicación para fines de entrenamiento de IA", según el comunicado enviado a TechCrunch.
Una declaración similar realizó la propia plataforma en su perfil de Reddit, en la que pretende "aclarar" en qué consistió la actualización sobre los términos de uso. "La actualización de febrero de 2024 a nuestros Términos de Servicio tenía la intención de aclarar cómo el contenido puede interactuar con las tecnologías de IA dentro de la propia plataforma de SoundCloud", aseguró.
De esta manera, precisó los casos a los que se refería, como son recomendaciones personalizadas, organización de contenido, detección de fraude y mejoras en la identificación de contenido con la ayuda de tecnologías de IA.
El inicio de este asunto se encuentra en el aviso que dio el director ejecutivo de Fairly Trained, Ed Newton-Rex, que advirtió de que SoundCloud había cambiado las condiciones de uso en febrero de 2024 sin notificar a los usuarios, según apuntó en una publicación en su perfil de X.
En concreto, Newton-Rex dijo que SoundCloud "parece reivindicar el derecho a ejercer control sobre la música que la gente sube", y detalló que este cambio en los términos de uso de la plataforma se añadió el 12 de febrero de 2024. También aseguró no haber recibido ningún correo de la aplicación informando sobre esta modificación.
De hecho, a finales de 2024, SoundCloud anunció que incorporaba seis nuevas herramientas basadas en IA a la plataforma para "remezclar, editar y producir música sin necesidad de estudio ni de una amplia experiencia".
Varias plataformas de contenido y redes sociales ya han hecho cambios en sus políticas para permitir el entrenamiento de IA. Algunos ejemplos de ello son X (antigua Twitter), para permitir a terceros "colaboradores" entrenar sus modelos de IA con datos de X, con la opción de que esta posibilidad fuera rechazada por los usuarios; o YouTube, para que los creadores puedan permitir que terceros utilicen el contenido que publican en la plataforma para entrenar modelos de IA, con el fin de ayudarles a "obtener un nuevo valor".