​First Mover Takes All en IA

|

Alfredo barriga 2

En un reciente artículo de The Economist se describe un fenómeno curioso que está sucediendo en la industria de la Inteligencia Artificial. Dice que es normal que las nuevas tecnologías siembren un pánico moral entre el público. Lo que no se había visto hasta ahora es que los mismos desarrolladores de las nuevas tecnologías fuesen quienes entraran en dicho pánico moral. Y eso es más o menos lo que está sucediendo en la carrera por conseguir la Inteligencia Artificial General (AGI), una lo suficientemente capaz de reemplazar a más o menos cualquiera con un trabajo de oficina, o incluso la Superinteligencia (ASI), es decir, una IA tan inteligente que ningún humano puede entenderla.


A pesar de las reservas, tanto las empresas tecnológicas occidentales como sus homólogas chinas están, en todo caso, acelerando su búsqueda de la IA. La lógica es simple. Todas están convencidas de que, incluso si su empresa o país se detuviera o redujera su ritmo, otras seguirían adelante, así que más les vale hacerlo también. La creencia de que los beneficios de alcanzar la IA o la superinteligencia probablemente recaigan principalmente en quienes logren el avance inicial da aún más motivos para apresurarse. Todo esto deja relativamente poco tiempo y capacidad para reflexionar sobre cuestiones de seguridad.


Por lo tanto, si bien están preocupados por los temas de seguridad inherentes en el desarrollo de la IA, nadie quiere ser segundo en esta carrera. Así, todos compiten ferozmente para ser los primeros en lograr tener el primer producto de IA general y ojalá de Super Inteligencia Artificial.


Google DeepMind ha identificado cuatro riesgos clave: mal uso, desalineación de objetivos, errores por complejidad y riesgos estructurales. Estos no son escenarios de ciencia ficción, sino posibilidades reales en un contexto donde modelos avanzados pueden ser manipulados para generar armas biológicas, desinformación o decisiones autónomas sin supervisión humana efectiva.


Aunque se han implementado capas de seguridad, como el aprendizaje por refuerzo con retroalimentación humana, los mecanismos son vulnerables. El fenómeno del “jailbreaking” (manipular o engañar a un modelo de IA para que ignore sus restricciones de seguridad y genere respuestas que normalmente evitaría) demuestra que los modelos pueden ser manipulados con facilidad. Y mientras algunos laboratorios intentan comprender el funcionamiento interno de sus sistemas, otros lanzan productos sin pruebas rigurosas, priorizando la velocidad sobre la responsabilidad.


El dilema es profundo: ¿cómo equilibrar innovación y seguridad cuando los incentivos favorecen el riesgo? Frenar el desarrollo puede significar perder la carrera. Pero avanzar sin garantías mínimas puede significar perder el control.


Chile, como parte de esta conversación global, debe preguntarse qué tipo de gobernanza quiere promover. ¿Seremos meros consumidores de tecnologías extranjeras o protagonistas de un modelo ético y participativo que preserve nuestra dignidad en la era digital?


Alfredo Barriga

Profesor UDP

europapress