El contenido realista sobre abuso sexual infantil generado con inteligencia artificial (IA) aumentó un 14 por ciento durante el pasado año 2025, con un total de 8.029 imágenes y vídeos identificados, de entre los que el 65 por ciento de los vídeos han obtenido clasificación más extrema.
Así se desprende del último informe elaborado por la Internet Watch Foundation (IWF) titulado 'Daños sin límites: material de abuso sexual infantil generado por IA desde la perspectiva de nuestros analistas', que muestra que, desde que la organización con sede en Reino Unido comenzó a monitorizar la IA a principios de 2023, han observado un "avance alarmante" en la capacidad de generar artificialmente imágenes de este tipo de contenido delictivo.
Concretamente, la IWF ha analizado 8.029 piezas de contenido generado por IA que mostraban abuso sexual infantil realista y que fueron encontradas tanto en la 'dark web' como en plataformas comerciales convencionales de la web abierta durante el pasado año 2025, representando un aumento del 14 por ciento en la creación de este tipo de contenido.
Entre las conclusiones del informe, destaca cómo los vídeos con IA son "cada vez más extremos y sofisticados". Tanto es así que, de los 3.443 vídeos de abuso sexual infantil identificados generados por IA, el 65 por ciento (un total de 2.233 piezas) se calificaron con la categoría A.
Ésta es la clasificación más extrema que emplea la IWF para referirse a material de abuso sexual infantil, ya que hace referencia a delitos como la violación y la tortura sexual, en base a la legislación británica.
Si se compara con los vídeos delictivos no generados por IA identificados por la IWF en 2025, el 43 por ciento eran piezas calificadas con la categoría A. Esta diferencia de porcentajes demuestra que los delincuentes están aprovechando la IA para crear contenido más violento que en la realidad.
Además, el número total de vídeos identificados ha aumentado más de 260 veces con respecto a los 13 vídeos encontrados en el año anterior 2024.
FACILIDADES PARA CREAR CONTENIDO ABUSIVO CON IA
En este marco, aunque la proporción de material generado por IA sigue siendo "relativamente pequeña" dentro del volumen de material de abuso sexual infantil que se procesa cada año desde la IWF, el informe concluye que la cantidad y gravedad de las imágenes generadas por IA han "aumentado exponencialmente" debido a la disponibilidad y facilidad de uso de las herramientas de IA.
El informe también recoge extractos de comunidades de delincuentes hallados en la 'dark web', donde los usuarios celebran abiertamente la accesibilidad y la sofisticación de estas herramientas de IA.
"Cada nuevo avance en IA generativa se elogia por su capacidad para mejorar el realismo, aumentar la gravedad o hacer más inmersivo cualquier escenario sexual imaginable con un menor", han detallado desde la IWF, al tiempo que han advertido que este realismo puede lograrse mediante "la adición de audio al video, la capacidad de representar a varias personas interactuando o incluso la manipulación exitosa de imágenes de un menor real conocido por el agresor".
Un ejemplo de la facilidad de generar imágenes de abuso sexual infantil se ha visto recientemente en la red social X, cuando su generador de imágenes impulsado por la IA de Grok compartió en la plataforma alrededor de tres millones de imágenes sexualizadas, incluidas 23.000 que representaban a niños, respondiendo a solicitudes de los usuarios que requerían este tipo de contenido.
Incluso, los analistas de la organización han recogido a delincuentes hablando sobre las posibilidades de utilizar esta tecnología en el futuro. Concretamente, utilizar una "IA automatizada" que "en uno o dos años" pueda crear películas de abuso "introduciendo una consigna a un agente de IA sin censura".
ENFOQUE DE SEGURIDAD NECESARIO EN LAS EMPRESAS DE IA Y LEGISLACIONES
Como ha matizado al respecto la directora ejecutiva de IWF, Kerry Smith, en un comunicado, los avances tecnológicos "nunca deberían ir en detrimento de la seguridad y el bienestar de un niño". Por tanto, ha apostillado que si bien la IA puede ofrecer muchos beneficios, "es espantoso pensar que su poder pueda usarse para arruinar la vida de un niño. Este material es peligroso".
Siguiendo esta línea, ha subrayado la necesidad urgente de que sean los propios gobiernos y empresas tecnológicas los que reconozcan los daños que provocan este tipo de prácticas de abuso sexual infantil generado por IA, así como las herramientas utilizadas para crearlo. "Debe haber tolerancia cero", ha sentenciado.
Al respecto, ha instado a las empresas a adoptar un enfoque de seguridad "desde el diseño" que garantice la protección infantil integrada en el desarrollo de los productos. Es decir, que por ejemplo sean los propios 'chatbots' los que impidan la creación de estas imágenes.
El informe se ha publicado después de que el Parlamento Europeo haya aprobado una prórroga temporal de la Directiva sobre privacidad electrónica, con la que extiende la exención a la legislación sobre la privacidad que permite la detección voluntaria de material de abuso infantil 'online' hasta el 3 de agosto de 2027, en lugar del próximo 3 de abril como estaba previsto.
En concreto se trata de una derogación parcial de las normas de protección de datos en el sector de las comunicaciones electrónicas que permite a los proveedores de servicios de comunicaciones -como servicios de mensajería- utilizar tecnologías específicas para el tratamiento de datos personales y de otro tipo con el fin de detectar abusos sexuales a menores en Internet.