​Inteligencia Artificial: Los 6 riesgos que deja el vacío de liderazgo humano

|


Inteligencia artificial 9 2

Es común ver que cuando se habla de Inteligencia Artificial o tecnologías avanzadas, las personas piensen instantáneamente en un computador o robot con mente propia y capaces de tomar decisiones por sí mismos. Si bien esta fantasía no está tan alejada de la realidad, basta con fijarse en la serie de plataformas y aplicaciones que se usan diariamente para solucionar problemas cotidianos para darse cuenta que el futuro ya está entre nosotros.

Hoy en día, una persona con licencia para conducir puede convertirse en “taxista” con solo un par de clicks, sin pasar por el engorroso y costoso proceso que se exigía en el pasado. Esto permite que una persona desocupada pueda ganar algo de dinero y que el pasajero pueda llegar a su destino sin la larga espera de un vehículo.

Sin embargo, no todo es color de rosa. Al no estar capacitada esa persona para su trabajo como conductor, puede quedarse sin bencina en medio de un viaje o perderse en la ciudad al no conocer cómo funcionan todas sus calles.

Lo mismo pasa cuando una empresa decide adoptar nuevas tecnologías, como el Internet de las Cosas, la ciberseguridad, la robótica, el Big Data y la Inteligencia Artificial: estos avances pueden mejorar de gran manera los procesos del negocio, hacer a la compañía más eficiente y ahorrarle tiempo, pero corren el riesgo de generar consecuencias inesperadas.

Considerando que cada vez más empresas chilenas están incorporando a sus bases tecnología avanzada, la firma de consultoría estratégica Bain & Company definió 6 riesgos potenciales que podría generar la ausencia de liderazgo humano en la operación de la Inteligencia Artificial dentro de las compañías:


1. Generar errores ocultos: Estas fallas no son detectadas por la tecnología, dado que su proceso de aprendizaje es automatizado, y no se hacen visibles hasta ocasionar una deficiencia masiva en la atención al cliente, por ejemplo.


2. Disminuir el pensamiento crítico, el desarrollo de las capacidades o el entendimiento del personal: Esto sucede al reducir las tareas del trabajador que le permiten mantenerse actualizado y con un criterio vigente sobre la orientación que debe tomar el negocio en cada etapa, como en el caso anterior del conductor de una plataforma de transporte de pasajeros.


3. Crear nuevos peligros: Al igual que las personas, la Inteligencia Artificial puede estar sujeta a manipulación, más aún dado que no está siendo constantemente supervisada por un superior. De la misma forma que los spammers lograron intervenir los sistemas de Machine Learning y manipular las informaciones que circulaban en redes sociales durante las elecciones estadounidenses, los algoritmos usados en empresas pueden ser afectados por terceros para lograr cosas que van desde la modificación de precios en el e-commerce a la contratación de nuevo personal.


4. Permitir respuestas discriminatorias: Este defecto es muy común en donde el personal no evalúa los datos con los que la máquina realiza su aprendizaje. La tecnología puede perjudicar a mujeres en la entrega de créditos hipotecarios o dejar de lado las preferencias de las minorías al no considerarlas dentro del análisis.

Marcial Rapela, socio de Bain & Company en Chile, explicó que “contrario a los modelos tradicionales de programación, que se basan en reglas, la Inteligencia Artificial opera como un esquema de representaciones estadísticas del entorno. Es decir, proporcionan respuestas producto de un aprendizaje previo, aspecto que abre la posibilidad de fallas como generalizaciones o ciertos sesgos”.


5. Impactar el vínculo entre la marca y el consumidor: Existen industrias que necesariamente requieren del contacto directo con el cliente. Los robots o desarrollos en Inteligencia Artificial pueden ser muy eficientes, pero no siempre oportunos, dada su falta de empatía y calidez con los usuarios.


6. Aumentar las probabilidades de perder el control operativo: Esto se da cuando la Inteligencia Artificial desplaza la capacidad de decisión del trabajador y la sensibilidad que ha desarrollado a lo largo de su experiencia. Un ejemplo de lo peligroso que esto puede llegar a ser es en la utilización de drones en el bombardeo de objetivos militares.


Todo lo anterior exige que las empresas, más que asumir la Inteligencia Artificial como un sustituto de las capacidades humanas, la deben entender como un complemento a las habilidades individuales de cada trabajador, para de esta forma potenciar al máximo las aplicaciones de la herramienta.

“El juicio humano debe estar presente en las decisiones estratégicas de las herramientas tecnológicas. Éste se hace más relevante en la medida que las soluciones digitales ocupan cada vez más funciones”, concluyó Rapela.

europapress