La red social descentralizada Mastodon ha actualizado sus políticas para prohibir el uso de los datos de los usuarios en el entrenamiento de modelos de inteligencia artificial, en línea con la decisión que recientemente ha adoptado X.
Los nuevos términos de Mastodon prohíben "explícitamente la extracción de datos de usuarios con fines no autorizados, como el archivo o el entrenamiento de modelos lingüísticos extensos (LLM)", un cambio que entrará en vigor a partir del 1 de julio.
Tampoco permite "usar, lanzar, desarrollar o distribuir cualquier sistema automatizado, incluyendo sin limitación, cualquier araña, robot, utilidad de trampa, scraper, lector 'offline' o cualquier minería de datos o herramientas de extracción de recopilación de datos similares para acceder a la instancia".
Como excepción, admite "el resultado del motor de búsqueda estándar o navegador de Internet y almacenamiento en caché local o para revisión humana e interacción con el contenido en la instancia", según recoge en sus términos.
El carácter descentralizado de la red social hace que la prohibición solo pueda aplicarse a las instancias de Mastodon, que se alojan en el servidor Mastodon.social, de tal forma que no aplica a otros servidores, de los que pueden extraer los datos.
Recientemente, la red social X (antigua Twitter) actualizó el 'Acuerdo de desarrollador' para prohibir a terceros el uso de los datos y el contenido de la plataforma para entrenar modelos de lenguaje de gran tamaño.