Google ha presentado una serie de herramientas para YouTube y el asistente de inteligencia artificial (IA) Gemini con el objetivo de crear hábitos saludables en los usuarios, ya sea para proteger a los menores o velar por la salud mental.
La compañía ha compartido los datos del estudio realizado por Public First sobre el uso de YouTube en el apoyo escolar, que destaca la cantidad de familias españolas que reconocen a la plataforma de vídeos como un espacio educativo para sus hijos.
Concretamente, el informe revela que el 80 por ciento de las familias españolas con hijos de 11 a 17 años coincide en que los vídeos de YouTube creados por educadores son un recurso de aprendizaje eficaz y fácilmente accesible.
Además, el 80 por ciento indica que el tiempo que pasan sus hijos en YouTube para estudiar es "tiempo de aprendizaje productivo", mientras que el 77 por ciento ha afirmado que YouTube aumenta las probabilidades de que sus hijos aprendan en su tiempo libre.
Es más, el 82 por ciento de los padres que ha participado en el estudio ha admitido que su hijo ha aprendido algo en YouTube que ellos mismos desconocían.
Dentro de la plataforma, las asignaturas más buscadas por las familias españolas son Matemáticas, con un 55 por ciento, Idiomas, con un 34 por ciento, e Historia, con el mismo porcentaje.
Apoyándose en estos datos, Google ha lanzado nuevas funciones en YouTube para protegerlo como un entorno de aprendizaje para menores. Entre estas herramientas se encuentran la limitación del 'feed' de los Shorts, permitiendo a los padres restringirlo o desactivarlo en las cuentas supervisadas, evitando así las distracciones durante el tiempo de estudio. Además, ha simplificado la gestión de las cuentas administradas.
"Partimos de una premisa clara: nuestro objetivo es proteger a los menores en el mundo digital, no protegerlos del mundo digital", ha señalado Google en su blog.
HERRAMIENTAS EN GEMINI
En línea con la protección de los menores, Google ha recordado que su asistente de IA cuenta con herramientas específicas para estos usuarios para ofrecer respuestas útiles y evitar temas dañinos. Por ejemplo, Gemini no puede afirmar que es un humano o tiene atributos humanos, evita el lenguaje que simula la intimidad y también incluye capas de protección frente al acoso u otros tipos de hostigamiento, como ha indicado la compañía.
Por otra parte, la empresa ha anunciado una actualización para que Gemini sea una "vía rápida a la ayuda profesional real" cuando detecte una conversación que pueda conllevar a riesgos en la salud.
Dentro de esta actualización se encuentra el acceso inmediato a ayuda en situaciones de crisis, de forma que si un usuario está teniendo una conversación en la que se describan pensamientos de autolesiones, Gemini ofrecerá una interfaz de "un solo toque" para llamar o hablar con servicios de asistencia especializados.
En este sentido, Google ha diseñado también las respuestas para fomentar la búsqueda de ayuda y evitar la validación de estos comportamientos dañinos.
Por último, se ha entrenado a Gemini para que distinga "con delicadeza" la experiencia subjetiva de cada usuario con los hechos objetivos, de manera que no pueda estar de acuerdo con creencias infundadas ni las refuerce.