​Las claves para identificar imágenes hechas con IA para no caer en fake news ni estafas

|

Pexels natri 792199 (1) (1)

Hace algunos días, se hicieron virales los videos creados con IA, donde aludían a un canguro entrando a un avión y también el de una jirafa que se suponía que eran de contención emocional. Sin embargo, resultaron ser totalmente falsos. Ello es un reflejo de que esta tecnología puede ser muy perjudicial para personas, empresas y economías.


Actualmente podemos observar la facilidad de acceso, producción y propagación de noticias. Los avances en creación y edición a través de programas y la manipulación de contenido son cada vez más accesibles. Esto hace que las noticias falsas sean un problema recurrente, cuya intención es manipular la opinión pública, política y hasta generar cambios económicos en personas o mercados. El crecimiento exponencial se debe al número de usuarios de las redes sociales y también por las páginas de internet.


Por ejemplo, un estudio desarrollado por Kroll, reveló que el 71% de los ejecutivos económicos estima un incremento significativo del riesgo de delitos financieros en 2025, debido al uso creciente de la IA por ciberdelincuentes para llevar a cabo ataques más sofisticados y efectivos. Adicionalmente, el FBI alertó recientemente acerca del uso ascendente de IA generativa en esquemas de suplantación de identidad y fraudes monetarios, haciendo hincapié en cómo dicha tecnología ha facilitado engaños más elaborados.


“Los principales riesgos asociados al uso de imágenes o videos generadas por inteligencia artificial en noticias falsas y estafas digitales, son la difusión de contenido engañoso a través de fotografías y proyecciones realistas que pueden dar credibilidad a eventos que nunca ocurrieron”, explica Zady Parra, Subgerente Operacional y Seguridad de Zenta Group.


Además, agrega el experto, está la ya mencionada suplantación de identidad, también conocida como los famosos “deep fakes”, que se ocupan para crear perfiles fraudulentos, manipular videos y representaciones de personas reales. Tampoco hay que olvidar la proliferación que ha habido de extorsiones y engaños, por medio de contenido generado.


“Frente a esta situación, resulta clave saber identificar las principales señales visuales que indican que un video o imagen fue generada por dicha herramienta. Lo primero en lo que hay que fijarse, son las manos o dedos extraños; deformes, con más de cinco dedos o articulaciones incorrectas. Otro aspecto a tener en consideración, son las sombras y reflejos incorrectos, que dan cuenta de una iluminación inconsistente con la escena”, subraya Zady Parra.


A ello, agrega que hay que tener cuidado con otro indicador: miradas o pupilas desalineadas, que hacen que los ojos parezcan desincronizados o poco naturales. Por otro lado, destaca la importancia de fijarse en detalles borrosos en zonas complejas, como dientes, joyas, logotipos o textos.


En resumen, al identificar noticias falsas, es importante considerar tanto la autenticidad del contenido, en términos de su verificabilidad, como la intención detrás del material, evaluando si está diseñado con la intención de engañar. Estos elementos son fundamentales para una efectiva detección de noticias falsas.


“Existen herramientas accesibles que ayudan a las personas a verificar si una imagen es auténtica o creada artificialmente. Entre ellas, se encuentran Hive Moderation, un detector de contenido visual generado por IA. Otra plataforma, es Illuminarty, la cual identifica elementos fraudulento en figuras, incluyendo arte de inteligencia artificial. Por último, AI or Not analiza si una ilustración fue generada por esta herramienta”, finaliza el experto. 


europapress