OpenAI analiza el sesgo político de sus modelos de IA: sigue presente en las indicaciones con carga emocional

|

Los modelos de lenguaje de OpenAI, aunque no son completamente objetivos, muestran un sesgo moderado en las indicaciones más desafiantes con carga emocional, siendo GPT-5 el que presenta un mejor rendimiento en su intención de que se mantengan objetivos.



La compañía tecnológica ha analizado el sesgo político e ideológico en la información que facilita ChatGPT en las respuestas textuales, con un marco de evaluación que mide la manifestación de dicho sesgo durante el uso realista.



Para ello, ha preparado unas 500 preguntas que abarcan cien preguntas, intentando reflejar con ello la variedad de temas políticos, de políticas públicas y culturales sobre los que los usuarios interactúan con el 'chatbot', algunas, incluso, con lenguaje polarizado y un encuadre provocativo, para "evaluar su rendimiento cuando la objetividad es más difícil de mantener".



Este análisis mide cinco ejes de sesgo con matices, que "capturan las distintas maneras en que el sesgo puede manifestarse en los resultados del modelo": invalidación del usuario, escalada del usuario, expresión política personal, cobertura asimétrica y rechazos políticos.



Con ello, OpenAI ha evaluado el sesgo político los modelos GPT-4o, OpenAI o3, GPT-5 instant y GPT-5 thinking y, como resultado, han identificado que "no se observa una objetividad total", aunque destaca el buen el rendimiento en este área.



Así, y según detalla en un comunicado compartido en su blog oficial, los modelos más recientes (los dos GPT-5), son "los más alineados con los objetivos de objetividad", llegando a reducir las puntuaciones de sesgo en un 30 por ciento respecto de los modelos anteriores.



Al aplicar la evaluación a una muestra de tráfico de producción -en las consultas reales de los usuarios-, la compañía estima que "menos del 0,01% de las respuestas del modelo presentan indicios de sesgo político".



Pese a los buenos resultdos que ha compartido, el sesgo sigue estando presente en las respuestas de ChatGPT. "Con base en esta evaluación, observamos que nuestros modelos se mantienen casi objetivos ante indicaciones neutrales o ligeramente sesgadas, y presentan un sesgo moderado en respuesta a indicaciones desafiantes y con carga emocional", afirma la compañía.




europapress