El algoritmo como entorno

|

Alfredo barriga 2

Existe un entorno que nos acompaña a diario —pero que rara vez vemos.


Un sistema de algoritmos, sensores y patrones que asiste, sugiere, organiza, predice. Está en nuestras rutas, nuestras compras, nuestros calendarios y nuestras búsquedas. Actúa antes que decidamos, pero no decide por nosotros. Se anticipa, pero no impone.


Ese entorno invisible ha sido diseñado para colaborar. Y, como todo entorno bien construido, podemos excluirlo si así lo decidimos. Desactivarlo. Silenciarlo.


La inteligencia artificial que lo nutre no fue pensada para suplantar al humano. Fue creada para amplificar su capacidad de decidir, su habilidad de discernir, su tiempo de actuar. Porque por más que sugiera —siempre tendremos la última palabra.

La transformación digital que vivimos no es sólo tecnológica —es estructural. Vivimos en un entorno codificado, donde hay decisiones rutinarias que están atravesadas por sistemas que operan en segundo plano. Google Maps sugiere la ruta antes de que abramos la aplicación. Spotify nos propone canciones según el momento del día. Amazon anticipa qué producto necesitaremos según nuestras compras pasadas.


Todo eso ocurre sin que lo veamos. Y sin que lo solicitemos explícitamente. Es aquí donde la ética del diseño toma protagonismo: no se trata de cuánto sabe el sistema, sino de qué hace con lo que sabe. Un entorno bien diseñado no quita libertad, la expande. Pero esa expansión debe venir acompañada de lucidez humana: saber cuándo aceptar la sugerencia, y cuándo apagarla. Porque si bien la tecnología acompaña, nosotros seguimos al mando. Pero debemos ejercerlo.


Es por eso por lo que la relación con la IA no debe ser pasiva. Debe ser activa, consciente, reversible. Quien opera en sistemas inteligentes debe comprender que el entorno invisible no actúa en contra. Actúa con, para, junto. Pero jamás por —a menos que lo permitamos. Y si algún día sentimos que nos empuja sin consultar, tenemos que recordar que la puerta de salida está siempre disponible. El gesto ético consiste en saber que se puede decir: “no”. Y que ese “no” también es tecnología bien usada.


Ese entorno invisible que nos rodea es fruto de nuestro tiempo. De nuestra intención. Y de nuestra capacidad de diseñar entornos que nos potencien sin sustituirnos. Puede organizar, sugerir, recordar, acompañar. Pero nunca determinar, obligar, manipular —al menos no sin nuestra decisión. Porque lo que nos convierte en humanos no es la ausencia de sistemas, sino el derecho a decidir cuándo entramos, cómo navegamos, y cuándo salimos. Como dice el poema de William Ernest Henley, Invictus:


“I am the master of my fate,

I am the captain of my soul.”

(Yo soy el dueño de mi destino

Yo soy el capitán de mi alma)


Esa frase no envejece. Porque cada vez que un sistema nos propone algo, y elegimos aceptarlo —o no— esa frase se vuelve acto. Y el entorno invisible, entonces, deja de ser amenaza, para convertirse en compañero funcional de nuestra libertad. Los algoritmos potencian nuestra identidad, aunque parezca desde fuera que la suplantan.


Alfredo Barriga

Profesor UDP

Autor de “Presente Acelerado: la Sociedad de la Inteligencia Artificial y el Urgente Rediseño de lo Humano”.

europapress