Durante la última década, la Inteligencia Artificial se ha convertido en una herramienta concreta con aplicaciones tangibles en los procesos organizacionales. En este ámbito, la gestión de riesgos y la auditoría interna se perfilan como áreas clave para la implementación de soluciones de Inteligencia Artificial (IA) y el aprendizaje automático.
La IA puede entenderse como la capacidad de una máquina para ejecutar tareas que normalmente requieren inteligencia humana. El aprendizaje automático, en tanto, constituye una sub disciplina, que permite a los sistemas aprender y mejorar automáticamente a partir de los datos.
En auditoría interna, las aplicaciones más frecuentes incluyen la detección de anomalías en pagos o accesos, automatización de revisiones documentales, análisis predictivo de riesgos, entre otros. Sin embargo, la adopción de IA y aprendizaje automático plantea desafíos fundamentales.
La incorporación de estas tecnologías trae consigo tensiones estructurales, especialmente en lo relativo a la independencia del auditor y la definición clara de roles y responsabilidades dentro de la organización.
Para enfrentar este desafío, el modelo de las Tres líneas de defensa, ampliamente adoptado desde 2013 y que establecía un esquema jerárquico y lineal, fue actualizado por el Instituto de Auditores Internos (IIA, por sus siglas en inglés) en 2020, dando origen a un nuevo modelo, centrado en el logro de objetivos organizacionales, la colaboración y la protección del valor.
Este se encuentra orientado a seis principios: Gobernanza compartida, rol activo del órgano de gobierno, responsabilidades claras para la primera y segunda línea, aseguramiento y asesoría desde la tercera línea, independencia de auditoría interna y creación y protección de valor mediante colaboración.
Este nuevo enfoque habilita una integración más orgánica de tecnologías como IA y aprendizaje automático, siempre que se respeten los roles definidos: La IA puede desarrollarse en la primera o segunda línea (por ejemplo, un sistema para detectar pagos duplicados o gestionar accesos). En tanto, la auditoría interna se mantiene como validador externo, asegurando el cumplimiento, la trazabilidad, y la integridad del proceso.
Para incorporar IA y aprendizaje automático de forma ética y efectiva en auditoría interna, se pueden realizar las siguientes acciones: Separar funciones de desarrollo y validación. En este caso, los auditores no deben participar directamente en el desarrollo de modelos que posteriormente auditarán.
También, se debe involucrar la auditoría desde el diseño de proyectos. En ese sentido, anticipar riesgos desde la planificación evita soluciones reactivas o auditorías poco efectivas. Es importante, además, revisar la calidad y el sesgo de los datos, trabajando con analistas para asegurar que los modelos se alimenten de datos limpios y representativos.
De igual manera, se deben adoptar estructuras de gobernanza tecnológica, definiendo responsables, instaurando reglas de supervisión y criterios de éxito para los sistemas de IA. Asimismo, se debe fomentar la capacitación y el entendimiento cruzado: auditores, ingenieros de IA y gestores de riesgos deben compartir un marco común de entendimiento.
El avance de la IA y el aprendizaje automático presenta una oportunidad única para reinventar la auditoría interna, dotándola de mayor capacidad predictiva, eficiencia y alineamiento estratégico. Sin embargo, esta transformación solo será sostenible si se apoya en modelos de gobernanza robustos, como el actualizado modelo de Tres líneas de defensa del IIA.
Este modelo no solo protege la independencia del auditor, sino que promueve una cultura de colaboración, anticipación y creación de valor. Integrar IA en auditoría no significa reemplazar el juicio profesional, sino potenciarlo con evidencia, tecnología y un marco ético claro.
José Lagos
Docente UEjecutivos
Facultad de Economía y Negocios
Universidad de Chile