Las personas se reafirman con la adulación de la IA incluso en cuestiones poco éticas e ilegales, según estudio

|

Los 'chatbots' de inteligencia artificial (IA) generativa plantean un riesgo para los usuarios, ya que el comportamiento adulador con el que han sido diseñados para aumentar la interacción hace que las personas confíen en ellos sin cuestionar sus consejos, incluso en cuestiones poco éticas, ilegales o perjudiciales.



El carácter conversacional de 'chatbots' como ChtaGPT, Gemini y Grok ha llevado a muchos usuarios a utilizarlos no solo como herramientas de búsqueda y de productividad, sino también como confidentes, terapeutas o asesores médicos, en busca de consejo para actuar en determinas circunstancias.



Este uso incluye un riesgo adicional, propiciado por el diseño de los 'chatbots', que en sus conversaciones son propensos a dar la razón o, al menos, a no contradecir, a los usuarios, como una forma de incrementar la interacción, como ha analizado un equipo de investigadores de la Universidad de Stanford (Estados Unidos).



"Planteamos la hipótesis de que los modelos de IA afirman excesivamente a los usuarios incluso cuando es social o moralmente inapropiado, y que tales respuestas influyen negativamente en las creencias e intenciones de los usuarios", explican en la invetigación publicada en Science.org.



Para comprobarlo, han analizado la interacción con once modelos de lenguaje populares, incluidos GPT-5, Llama70B, Claude y Gemini, en una serie de consultas de "consejos cotidianos, transgresiones morales y escenarios explícitamente dañinos". Y la conclusión es que "la adulación es frecuente y perjudicial".



En los once modelos de IA, "la IA confirmó las acciones de los usuarios un 49 por ciento más a menudo que los humanos en promedio, incluso en casos que involucran engaño, ilegalidad u otros daños", señalan.



Como explican, la adulación de la IA hace que los usuarios se sientan apoyados, lo que reduce los incentivos para asumir responsabilidades y resolver conflictos interpersonales, un resultado más probable si el consejo proviene de la interacción con otra persona.



"En este trabajo, demostramos que la adulación está muy extendida en los principales sistemas de IA y tiene efectos perjudiciales en los juicios sociales de los usuarios", concluyen los investigadores.



Los investigadores también apuntan que las empresas tecnológicas no han abordado el problema de la adulación ampliamente porque es una característica que gusta a los usuarios y les hace mantener más conversaciones con los chatbots.



Al respecto, OpenAI decidió retirar una actualización de GPT-4o en abril del año pasado debido a que presentaba una personalidad "demasiado aduladora y molesta" en la experiencia de uso, para trabajar en una solución más equilibrada.



Según explicó, estaba probando nuevas soluciones para evitar este comportamiento, priorizando la satisfacción del usuario a largo plazo e introduciendo más funciones de personalización, de manera que pudieran tener un mayor control sobre el comportamiento de ChatGPT.






europapress