OpenAI, Google y Anthropic han unido sus fuerzas para combatir los intentos de destilación de modelos de inteligencia artificial por parte de empresas chinas, ante la aparición de imitaciones de sus productos de IA.
Las tres empresas están compartiendo información a través de Frontier Model Forum, una iniciativa fundada por ellas mismas en 2023 para asegurar el desarrollo seguro y responsable de los modelos de IA de frontera.
La intención ahora es detectar los intentos de destilación adversaria, especialmente los procedentes de empresas chinas, como han indicado fuentes conocedoras de este asunto a Bloomberg. Se trata de una técnica que busca clonar o replicar la funcionalidad de un modelo en otro más pequeño para obtener sus capacidades pero a menor coste.
Esta técnica es una violación de los términos de uso de los modelos de las tres empresas, y tiene también repercusiones económicas, ya que el uso no autorizado de la destilación se estima en miles de millones de dólares anuales, según una de las fuentes consultadas.
OpenAI ha confirmado a Bloomberg este trabajo conjunto. La compañía ya emitió en febrero al Congreso de Estados Unidos un escrito en el que acusaba directamente a la empresa china DeepSeek de clonar modelos estadounidenses, entre ellos los suyos.
Algunos componentes de los modelos de Llama de Meta, distribuidos bajo una licencia de código abierto, se han encontrado en el model de razonamiento DeepSeek R1, lo que hizo replantearse a la empresa su estrategia con el lanzamiento de nuevos modelos.