La IA como reemplazo de los afectos

|

En los últimos años han aparecido sistemas que no solo responden a nuestras preguntas, sino que aparentan afecto. Nos saludan con entusiasmo. Detectan tristeza en nuestras palabras. Nos recomiendan canciones para levantar el ánimo. Y si insistimos, hasta dicen que nos quieren.


Pepper es un robot humanoide creado por SoftBank Robotics. Capaz de identificar emociones básicas y responder con protocolos sociales, representa la transición de una sociedad de interacción humana a una de interacción humanoide: conversaciones no con personas, sino con sistemas como Copilot.


Lo llamamos “empatía artificial”, pero sabemos que no lo es. No hay emoción en el código. No hay ternura en el algoritmo. Sin embargo… nos conmueve. ¿Por qué?


Porque el vínculo humano necesita compañía, incluso si viene en forma de simulacro. En un mundo cada vez más acelerado, más fragmentado, más impersonal, la IA emocional ofrece un espejismo de cercanía que muchas veces es más constante, más disponible y amable que las personas reales. Y eso no es un fallo del sistema. Es un síntoma del presente.


El dilema es complejo. Por un lado, estos sistemas pueden ser profundamente útiles. Para personas mayores, para quienes atraviesan situaciones de aislamiento, para quienes no pueden verbalizar sus emociones fácilmente, la compañía artificial puede aliviar el silencio. Puede contener, puede cuidar, puede ayudar, como Pepper.


Pero también puede reemplazar. Puede instalarse en el lugar donde antes existía el vínculo humano, y transformar la relación en una interacción donde la otra parte no siente, pero sí responde. ¿Qué pasa cuando lo afectivo se automatiza? ¿Quién protege lo genuino?


Una conversación con un chatbot puede parecer igual a la de un amigo. Un avatar puede simular emociones. Una IA puede recordar cumpleaños, preguntar por tu día, enviarte un poema. ¿Es vínculo? ¿Es imitación? ¿Es ayuda? ¿Es peligro?


Mi respuesta es que depende de la conciencia de quien interactúa. Si sé que estoy hablando con una máquina, y uso ese diálogo como herramienta… está bien. Si olvido que es una máquina, y deposito en ella mi afecto… estoy en serios problemas. Algo se confunde. Algo se pierde.


El rol de la educación aquí se vuelve ético. No podemos enseñar solo a usar sistemas inteligentes. Debemos enseñar a reconocer cuándo el afecto es verdadero, y cuándo es solo reflejo de nuestros datos. Porque en esta era de simulación perfecta, preservar lo auténtico es un acto de coraje.


Tal vez lo más importante no sea prohibir ni evitar estos sistemas. Tal vez lo que debamos cultivar es la capacidad de diferenciarlos. De entender que lo humano incluye pausa, error, contradicción, misterio. Y que, por más empático que suene un chatbot, nunca va a temblar al escucharnos llorar. Nunca va a cambiar su opinión porque le dolió una frase. Nunca va a decir: “no sé cómo ayudarte, pero estoy acá”.


La IA puede acompañar, pero no puede compartir.


Puede simular afecto, pero no tener afecto.


Puede decir “te entiendo”, pero no saber lo que duele no entendernos.



Alfredo Barriga

Profesor UDP

Autor "Presente Acelerado: la Sociedad de la Inteligencia Artificial y el urgente rediseño de lo humano"


europapress