Las organizaciones buscan incorporar inteligencia artificial en sus operaciones, pero no a cualquier costo: la prioridad es que sea segura, eficiente y alineada con sus necesidades concretas. En este contexto, están surgiendo los Modelos de Lenguaje Pequeños (SLM, por sus siglas en inglés), que comienzan a posicionarse como una alternativa estratégica frente a los Grandes Modelos de Lenguaje (LLM), entre los que se encuentran ChatGPT, Copilot, Gemini, entre otros.
Mientras que los LLM están diseñados para abordar una amplia gama de tareas que van desde responder preguntas generales hasta redactar textos complejos, los SLM ofrecen una propuesta más acotada, pero también más precisa. Estos modelos se especializan en temáticas concretas, consumen menos recursos y pueden desplegarse dentro de los centros de datos corporativos, lo que no solo reduce costos, sino que también mejora la gobernanza sobre los datos sensibles del negocio.
Este enfoque más eficiente responde, además, a una limitación clave: la capacidad de cómputo. Como ésta es limitada, hoy se necesitan modelos que no consuman tantos recursos. Por otra parte, cuando se quiere hacer una implementación en una compañía, no hace falta que el modelo sepa quién es el último presidente, o que sea experto en biología…; lo que se precisa es que maneje los datos de la empresa, para lo cual se debe hacer un entrenamiento o un alineamiento específico.
Mientras que los LLM hacen de todo, los SLM se enfocan en pocas cosas, pero las hacen muy bien, con más precisión y (en general) sin las famosas “alucinaciones”. Y también con un costo menor, especialmente cuando se piensa en su utilización a gran escala dentro de las organizaciones.
Un informe de Markets and Markets indica que el mercado mundial de modelos de lenguaje pequeño (SLM) está a punto de experimentar una expansión sustancial, con una tasa de crecimiento anual compuesta (TCAC) del 28,7 % entre 2025 y 2032. En 2025 este mercado se valoró en aproximadamente U$S 930 millones, y se espera que alcance los U$S 5450 millones en 2032.
Como se entrenan con conjuntos de datos más acotados y seleccionados, estos modelos resultan más relevantes para las compañías. Al ser más livianos, también pueden ser entrenados más fácilmente con los datos propios de la empresa, incluyendo su contexto de negocio, lo que les permite responder de forma más eficaz a preguntas específicas. Y, al poder ejecutarse dentro de los data centers de las organizaciones, refuerzan la seguridad y reducen costos.
Es cierto que los LLM suelen estar disponibles como servicio en la nube pública y son fáciles de comenzar a utilizar. Pero cuando se trata de inteligencia artificial generativa, muchas veces se trabaja con datos sensibles del negocio, y las empresas se muestran reticentes a perder el control sobre esa información. Por eso, hoy empiezan a definir su estrategia de IA no solo en términos de adopción, sino también de soberanía sobre los datos y sobre la infraestructura tecnológica.
A futuro, LLM y SLM van a coexistir. Los primeros serán más utilizados por personas en su vida cotidiana, mientras que los segundos tendrán un rol clave dentro de las empresas. Estas no dependerán de un único modelo, sino de un conjunto diverso que dé soporte a diferentes áreas del negocio. Por ejemplo, podrán contar con un modelo experto en temas legales, otro que actúe como guardián ético, y uno más que se enfoque en contabilidad. Todos ellos actuarán como asistentes, orquestados para lograr un objetivo común. Y si en algún momento se requiere una capacidad más generalista o un contexto conversacional amplio, se podrá “llamar” a un LLM. Pero la tendencia va en otra dirección: hacia la especialización, hacia la orquestación de múltiples SLM, y no hacia la dependencia de un único modelo generalista.
En este contexto, InstructLab, es una herramienta open source que simplifica el entrenamiento de modelos y la incorporación de inteligencia. Antes, esta tarea era exclusiva de científicos de datos; hoy, gracias a ella, cualquier persona puede entrenar una IA generativa. Además, hay firmas como Neural Magic, que es experta en una tecnología abierta llamada vLLM, que es un estándar para comprimir modelos y permitir que se ejecuten de forma más rápida y eficiente. Este tipo de iniciativas amplían el acceso al mundo de la IA para muchas más organizaciones.
Dentro del emergente ecosistema de SLM, el modelo open source ofrece ventajas claras: libertad para elegir tecnologías sin quedar atado a proveedores, la posibilidad de que todos colaboren para innovar, y, sobre todo, el objetivo de democratizar el acceso a la inteligencia artificial.
Victoria Martínez,
Gerente de inteligencia artificial para Latinoamérica en Red Hat