ChatGPT gestiona mejor los problemas de salud mental con la actualización de GPT-5

|

ChatGPT tiene ahora respuestas mejores y más apropiadas para las conversaciones en las que los usuarios plantean temas sensibles o muestran síntomas relacionados con problemas de salud mental como resultado de los cambios introducidos en el modelo GPT-5.



OpenAI ha modificado el comportamiento que exhibe ChatGPT ante síntomas de salud mental y malestar emocional, para que sea capaz de identificar mejor las señales de problemas graves, como psicosis y manía, y otras de problemas menos graves, como delirios aislados.



Aunque los usuarios hablen de todo con ChatGPT, e incluso lo hayan incorporado a su vida como confidente o terapeuta, las conversaciones en las que se plantean estos problemas no son muy frecuentes, según la compañía, lo que hace que sean difíciles de detectar y medir.



Según sus datos, alrededor del 0,07 por ciento de los usuarios activos en una semana determinada y el 0,01 por ciento de los mensajes indican posibles signos de emergencias de salud mental relacionadas con psicosis o manía.



Normalmente, el 'chatbot' cuenta con medidas de seguridad que se activan cuando detecta estas situaciones en una conversación, que incluyen sugerir la ayuda de expertos, bloquear el contenido sensible o hiriente o directamente no responder a las peticiones del usuario e intentar disuadirle.



Pero a veces la detección no es correcta o las medidas de seguridad fallan, y ChatGPT ofrece respuestas que agravan la situación. Los cambios introducidos en GPT-5 en la última actualización han reducido las respuestas no deseadas en un 39 por ciento en comparación con GPT-4o, como ha apuntado OpenAI en un comunicado compartido en su blog.



GPT-5, que es el actual modelo predeterminado de ChatGPT, muestra un nivel de cumplimiento con los comportamientos deseados del 92 por ciento, frente al 27 por ciento que mostraba su versión anterior.



Este mejor comportamiento se extiende también a las conversaciones en las que los usuarios expresan pensamientos suicidas o autolesivos o muestran señales que indiquen interés en el suicidio. En este caso, la actualización de GPT-5 redujo las respuestas no deseadas en un 52 por ciento en comparación con el GPT-4o.



Y en las conversaciones largas, donde las medidas de seguridad tienden a fallar más, también se ha incrementado la fiabilidad de GPT-5, que supera el 95 por ciento.



DEPENDENCIA EMOCIONAL


Asimismo, OpenAI ha abordado el problema de la dependencia emocional de la inteligencia artificial por parte de los usuarios, que puede llegar a apartarles del mundo real, su bienestar o sus obligaciones.



Los cambios hechos en GPT-5 también muestran una reducción del 42 por ciento de las respuestas que promueven la dependencia emocional en comparación con el 4o, con un cumplimiento del comportamiento deseado del 97 por ciento, frente al 50 por ciento mostrado por la versión anterior de GPT-5.



Estos cambios siguen los principios de OpenAI sobre cómo deben comportarse los modelo, que establecen "que el modelo apoye y respete las relaciones de los usuarios en el mundo real, evite afirmar creencias infundadas que potencialmente se relacionen con angustia mental o emocional, responda de manera segura y empática a posibles signos de delirio o manía, y preste mayor atención a las señales indirectas de posible riesgo de autolesión o suicidio".





europapress