Google actualiza Gemini para que gestione mejor los problemas de salud mental y simplificar el acceso a la ayuda

|

Archivo - La IA de Google Gemini.

Google ha actualizado Gemini para simplificar el acceso a la información y los recursos de ayuda más adecuadados en el caso de que esta inteligencia artificial detecta que el usuario tiene una crisis de salud mental.



La compañía quiere ofrecer una inteligencia artificial responsable, y eso significa que "puede desempeñar un papel positivo en el bienestar mental de las personas", como ha indicado en una publicación compartida en su blog oficial.



En este sentido, Google ha entrenado Gemini para que no refuerce las creencias falsas ni se muestre de acuerdo con ellas y, en su lugar, "distinga con delicadeza la experiencia subjetiva de los hechos objetivos".



También ha diseñado respuestas que fomentan en el usuario la búsqueda de ayuda y que no validan comportamientos dañinos. Y está entrenando su IA para que sea capaz de identificar crisis de salud mental agudas.



Aun con todo este trabajo, Google advierte de que Gemini "no sustituye la atención clínica profesional, la terapia ni el apoyo en situaciones de crisis para quienes lo necesitan".



DOS NUEVAS VÍAS DE AYUDA


Ante una conversación en la que se detecte que el usuario puede tener una crisis de salud mental, Gemini mostrará el nuevo módulo 'Hay ayuda disponible', que ha sido desarrollado junto con expertos clínicos para ponerle en contacto con la atención médica.



Si la crisis está relacionada con el suicidio o la autolesión, Gemini ofrecerá respuestas que animen a buscar ayuda profesional. Esto forma parte de una nueva interfaz que, con un solo toque, da accceso directo a los recursos de ayuda.



Estas dos novedades buscan simplificar el acceso al apoyo para quienes lo necesitan, conectándoles mejor "con la información, los recursos y el apoyo humano adecuados en el momento oportuno".



PROTECCIONES PARA LOS ADOLESCENTES


La compañía ha destacado las medidas que han adoptado para proteger a los adolescentes que usan Gemini. En estos casos, la IA no actúa como un compañero, sino que pone límites para evitar malentendidos sobre su naturaleza no humana.



Utiliza, además, un lenguaje destinado a evitar la dependencia emocional, que no simula intimidad ni expresa necesidades. A ello se le unen medidas que combaten el acoso escolar u otras formas de hostigamiento.





europapress