El auge de la Inteligencia Artificial Generativa (IAg) está marcando un antes y un después en el ámbito de la ciberseguridad. Las soluciones de ciberseguridad basadas en IA Generativa permiten automatizar la documentación de incidentes, acelerar la búsqueda y análisis de amenazas, interpretar grandes volúmenes de datos de logs o generar una campaña de sensibilización y cambio cultural. Para incrementar la productividad, las empresas han comenzado a incorporar herramientas como ChatGPT, Copilot, Claude 3 o Gemini.
Pese a los beneficios, los ciberdelincuentes también están adoptando esta tecnología para escalar sus ataques con mayor precisión, velocidad y sofisticación. De hecho, el 96% de los líderes empresariales cree que la adopción de IA Generativa incrementará la probabilidad de sufrir una brecha de seguridad en los próximos tres años, según el reporte de IBM Cybersecurity in the Era of Generative AI.
Los modelos de lenguaje como GPT están siendo utilizados por los cibercriminales para crear correos electrónicos de phishing altamente convincentes, que se encuentran personalizados en tono y estilo del objetivo. Incluso, personas principiantes pueden lanzar campañas de ingeniería social sin tener ningún conocimiento técnico. A esto se suman los deepfakes de audio, donde la voz de un CEO puede ser replicada para engañar a un director financiero con instrucciones falsas de transferencias.
Asimismo, en el escenario actual, no solo se usa la IA para atacar organizaciones, sino que se usa esta herramienta en contra de la misma organización. A través de técnicas de envenenamiento de datos, los ciberdelincuentes pueden atacar al ingresar datos erróneos o maliciosos a la información de entrenamiento de un modelo, lo que se traduce en que el cálculo final del modelo es erróneo (Data Poisoning) o utilizar prompt inadecuados, para que el modelo realice tareas prohibidas. Así, los atacantes pueden manipular los resultados de los sistemas de IA Generativa para generar desinformación, crear software vulnerable o divulgar datos sensibles.
¿Qué hacer? Respecto al fenómeno, denominado Phishing 3.0, que pone en jaque los mecanismos tradicionales de defensa, las organizaciones deben incorporar códigos de autenticación hablados, entrenar en detección de anomalías lingüísticas y aumentar la sensibilización y cultura sobre estas nuevas técnicas.
En relación a la IA Generativa, este escenario implica un cambio de paradigma en la ciberseguridad: no solo se deben proteger los sistemas, redes y usuarios, sino también los datos de entrenamiento, los modelos y los prompts que hacen funcionar la IA.
Esta herramienta representa una nueva frontera en la ciberseguridad, tanto en amenazas como en soluciones. Las organizaciones deben moverse rápido, fortalecer su postura defensiva, crear capacidades de monitoreo específicas para IA y formar equipos con habilidades híbridas entre seguridad, datos y ética.
La IA Generativa, si bien representa un riesgo, puede convertirse de manera exponencial en la mejor defensa, la cual no solo trata de prevenir, sino de anticipar, adaptarse y aprender más rápido que el atacante.
José Lagos
Docente UEjecutivos
Facultad de Economía y Negocios
Universidad de Chile