La tecnología de reconstrucción de IA generativa de Fujitsu facilita crear modelos ligeros y energéticamente eficientes

|

Fujitsu ha compartido el desarrollo de una nueva tecnología de reconstrucción para inteligencia artificial (IA) generativa, que se basa en un sistema que reforzará el modelo de lenguaje de gran tamaño (LLM) Fujitsu Takane LLM para permitir la creación de modelos de IA ligeros y energéticamente eficientes.



Enmarcado en el servicio Fujitsu Kozuchi AI, la compañía ha compartido sus últimos avances de cara a continuar mejorando las capacidades de IA generativa de sus servicios, con el objetivo de "resolver desafíos más complejos para sus clientes y sociedad". En concreto, basándose en dos principales avances, como son la cuantificación y la destilación de IA especializada.



En el caso de la cuantificación, es una técnica que comprime la información almacenada en las conexiones entre neuronas que conforman la base del "proceso de pensamiento" de un modelo de IA. Esto permite optimizar el pensamiento y reducir el consumo energético. Asimismo, Fujitsu ha desarrollado un nuevo algoritmo de propagación de error de cuantificación, que evita la acumulación exponencial de errores en redes neuronales profundas.



Por su parte, la destilación de IA especializada es un método que logra, de forma simultánea, aligerar el modelo condensando el conocimiento y mejorarlo alcanzando una precisión superior incluso a la del modelo original.



Para ello, se transfiere el conocimiento desde modelos maestros, en este caso Takane, hacia el modelo seleccionado. Tras ello, se lleva a cabo una reconfiguración estructural imitando procesos de refuerzo del conocimiento y organización de la memoria, inspirada en el funcionamiento del cerebro.



En esta reconfiguración, se elimina el conocimiento innecesario generando múltiples modelos candidatos, y se selecciona el modelo óptimo mediante búsqueda de arquitectura neuronal, adaptado a los requisitos de recursos de GPU, velocidad y precisión.



Con la combinación de ambas técnicas, Fujitsu ha desarrollado su nueva tecnología de reconstrucción de IA generativa ideada para permitir la creación de modelos de IA ligeros y energéticamente eficientes, basándose en el LLM Fujitsu Takane.



TASA DE RETENCIÓN DE PRECISIÓN "MÁS ALTA DEL MUNDO"


Así, tal y como ha compartido la compañía en un comunicado, al aplicar la tecnología de desarrollo propio de cuantificación de 1 bit al modelo Takane, se ha conseguido una reducción del 94 por ciento en el consumo de memoria del modelo. Esto, junto con la destilación, les ha permitido alcanzar la tasa de retención de precisión "más alta del mundo", del 89 por ciento en comparación con el mismo modelo sin cuantificar, incrementando asimismo 3 veces más la velocidad de inferencia.



De hecho, según ha especificado Fujitsu, esta tasa de retención de precisión supera la tasa inferior al 20 por ciento que suelen lograr otros métodos convencionales, como es el caso de la cuantificación GPTQ. Como resultado, esta técnica permite que modelos grandes de IA generativa, que habitualmente requieren cuatro GPU de alto rendimiento para su ejecución, ahora puedan funcionar de forma eficiente "en una sola GPU de gama baja".



Según ha ejemplificado la tecnológica, en una prueba de predicción en negociaciones comerciales, esta tecnología ha logrado un modelo con 11 veces más velocidad de inferencia, una mejora del 43 por ciento en precisión y una reducción del 70 por ciento en memoria GPU y costes operativos.



IA AGENTE EN 'SMARTPHONES' Y MAQUINARIA INDUSTRIAL


Todos estos logros se traducen en que, utilizando la tecnología de reconstrucción de Fujitsu, se permitirá el despliegue de IA agente en distintos dispositivos, desde 'smartphones' a maquinaria industrial, permitiendo "mejores respuestas en tiempo real, mayor seguridad de los datos y la reducción del consumo energético" en las operaciones de IA.



En este marco, Fujitsu ha adelantado que prevé ofrecer a sus clientes a nivel global entornos de prueba del LLM Takane con esta tecnología de cuantificación aplicada a partir de la segunda mitad del ejercicio fiscal en 2025.



La compañía ha anunciado igualmente que lanzará progresivamente modelos Cohere Command A, con pesos abiertos y cuantificados con esta tecnología, que ya están disponibles a partir de este jueves en Huggin Face.



Además, ha asegurado que continuará avanzando en investigación y desarrollo para mejorar significativamente las capacidades de IA generativa. A largo plazo, ha asegurado que los modelos especializados de Takane evolucionarán a arquitecturas avanzadas de IA agente, con una mayor comprensión y capacidad para resolver problemas complejos de forma autónoma.




europapress