ChatGPT celebra este domingo el tercer aniversario desde su lanzamiento, tiempo que en el que ha pasado de la generación de contenido a la interacción multimodal y el razonamiento profundo para ofrecer a los usuarios un compañero de trabajo y de confidencias.
El 'chatbot' de OpenAI cuenta ya con 800 millones de usuarios que recurren a él como algo más que un buscador, ya que también lo utilizan como un compañero de trabajo, como un asesor personal o como un confidente, gracias al formato de interacción conversacional que lo ha acompañado desde sus inicios.
Sin embargo, ha sido la evolución de sus capacidades la que ha hecho que pasara de ser una herramienta de entretenimiento con la generación de contenido a otra más centrada en la solución de problemas para el trabajo, los estudios y el día a día.
De esa evolución son responsables los modelos de lenguaje grande que hay en su base. Cuando apareció ChatGPT, lo hizo con la versión GPT3.5, que le permitía responder preguntas y mantener una conversación realista con un usuario, así como generar contenido a partir de una descripción en texto.
Con GPT-4 se introdujeron las capacidades multimodales con la comprensión de imágenes y de voz,que llevó la interacción a nuevas cotas, al no depender ya únicamente del texto, si bien fue con GPT-4o cuando la multimodalidad se convirtió en nativa, al poder comprender y generar una combinación de entradas de texto, audio e imagen con gran velocidad.
La compañía apostó entonces por mejorar las capacidades de razonamiento con modelos centrados exclusivamente en este área, los conocidos como la serie o. De esta forma, ChatGPT mejoró las respuestas que da, al dedicar más tiempo a pensar en ellas, lo que ha permitido que resuelva tareas y problemas complejos en áreas como ciencia, programación y matemáticas.
Y pudo dar sus primeros pasos en la navegación autónoma por internet con las capacidades de agente de OpenAI o3 y o4-mini, dos modelos que, según la compañía, estaban "entrenados para razonar sobre cuándo y cómo utilizar herramientas para producir respuestas detalladas y reflexivas en los formatos de salida correctos" y hacerlo, además con rapidez, en menos de un minuto.
ChatGPT destaca actualmente como un experto en cualquier área de nivel doctorado, debido a los avances en razonamiento que trajo GPT-5 este verano, y por poder generar un programa completo de manera autónoma y en poco tiempo a partir de unas pocas indicaciones.
El refinamiento que introduce el modelo se extienden a su capacidad para comunicarse con los usuarios, más natural e incluso adaptada a distintas personalidades.
LUCES Y SOMBRAS DEL CHATBOT
Las interacciones con ChatGPT puede producir lo que se conoce como alucinaciones y engaños, es decir, las respuestas en las que se inventa información o la usa de forma incorrecta.
No es, en realidad, un problema exclusivo de ChatGPT, sino que también aparece en otros 'chatbots' como Gemini, Claude, Perplexity y Grok. Pero el principal problema radica en que estos se consideran una fuente de información, y las alucinaciones pueden hacer que la gente dé por ciertos datos que no lo son, sin comprobarlos antes.
Para mitigarlos, OpenAI, al igual que las empresas responsables del los otros 'chatbots', suelen reforzar el entrenamiento de los modelos de base y configurarlos para que muestren en los enlaces de donde han recogido la información y digan claramente que no no pueden completar con éxito una petición o tarea e incluso negarse a responder a preguntas cuando suponen un riesgo.
Esto último enlaza con otro de los problemas que han surgido con el uso de ChatGPT: el agravamiento de los problemas de salud mental, debido a la dependencia emocional que ha nacido en algunas personas al usar el 'chatbot' como si fuese un amigo o confidente, propiciado por la interación mediante conversación y el lenguaje natural.
OpenAI asegura que GPT-5 identifica mejor las señales en la conversación que avisan síntomas de salud mental y malestar emocional y reduce la aparición de respuestas no deseadas -que agravan la situación-, manteniendo las salvaguardias también en las conversaciones largas, donde normalmente tienden a fallar, y facilitando recursos para buscar ayuda.
Al tiempo que ha mejorado la respuesta a los problemas de salud mental, también ha hecho cambios que restringen el uso que hacen de ChatGPT los adolescentes, con los que ha introducido herramientas para que los padres y tutores supervisen sus interacciones y puedan limitar la aparición de determinados contenidos. También prepara un sistema que detecte la edad, para ajustar la experiencia.
Estos cambios han llegado después de que una familia estadounidense demandara a la compañía tecnológica por el suicidio de su hijo adolescente, al entender que ChatGPT jugó un papel destacado en la decisión que tomó, al fallar las salvaguardias.
Estos problemas surgieron con el uso más continuo y profundo de ChatGPT, pero desde el inicio, y dada su capacidad para generar contenido, destacaron los que tienen que ver con los derechos de autor, por la cantidad de datos (texto, vídeo, imágenes, audio) que requiere el entrenamiento de los modelos, que no siempre que obtienen de fuentes de libre uso.
Por último, no hay que olvidar la ciberseguridad. Aunque OpenAI y el resto de las empresas desarrolladoras de estos modelos aseguran implementar limitaciones y barreras, una de las primeras aplicaciones que se detectaron con ChatGPT fue la generación de 'malware' y desde entonces los cibercriminales han refinado su uso para intentar impulsar campañas maliciosas, generar contenido con información sesgada o monitorizar las conversaciones en redes sociales.
Los malos usos de este 'chatbot' se extienden a la generación de vídeos y fotografías que simulan situaciones reales, o grabaciones que reproducen con gran realismo la voz de personajes públicos, lo que se conoce como 'deepfake', se utilizan para la promoción de noticias falsas, desinformación o manipulaciones de tipo propagándístico y pornográfico, y fraudes financieros.