OpenAI presenta GPT-5.3-Codex-Spark su primer modelo capaz de codificar en tiempo real con respuestas "ultrarrápidas"

|

OpenAI ha presentado GPT-5.3-Codex-Spark, su primer modelo diseñado para la codificación en tiempo real, con capacidades para ejecutar sus resultados de forma "casi inmediata", entregando más de 1.000 tokens por segundo.



Una semana después de dar a conocer GPT-5.3-Codex, su inteligencia artificial (IA) de codificación más avanzada que ayudó en su propia creación, la tecnológica dirigida por Sam Altman ha dado a conocer una nueva versión reducida diseñada para la codificación en tiempo real.



Se trata de GPT-5.3-Codex-Spark y, como ha explicado OpenAI en un comunicado en su blog, permite realizar ediciones específicas, redefinir la lógica o perfeccionar las interfaces a la hora de llevar a cabo tareas de codificación, ofreciendo "resultados inmediatos" e interacción en tiempo real.



Es decir, los usuarios pueden colaborar con el modelo interrumpiéndolo o modificando solicitudes mientras trabaja, recibiendo igualmente respuestas casi inmediatas. No obstante, se ha de tener en cuenta que, para lograr esta rapidez, el modelo realiza ediciones mínimas y específicas, y no ejecuta pruebas automáticamente a menos que se le especifique.



Como resultado, los usuarios podrán utilizar Codex-Spark para llevar a cabo tanto tareas más laboriosas de larga duración, como la realización del trabajo en el momento. Para ello, el modelo se ha presentado con una ventana de contexto de 128K, solo de texto.



La tecnológica ha subrayado igualmente que Codex-Spark demuestra un "excelente rendimiento" en los 'benchmarks' SWE-Bench Pro y Terminal-Bench 2.0, que evalúan la capacidad de ingeniería de 'software'. De hecho, según estas pruebas, es capaz de completar tareas "en mucho menos tiempo" que GPT-5.3-Codex.



Se ha de tener en cuenta que, para lograr esta rapidez en Codex-Spark asegurando resultados eficientes, OpenAI ha detallado que este modelo forma parte de su colaboración con la compañía Cerebras, de manera que se ejecuta en el motor Wafer Scale Engine 3 de la compañía, un acelerador de IA diseñado específicamente para la inferencia de alta velocidad, que ayuda a priorizar la latencia.



Con todo ello, Codex-Spark se ha lanzado como una vista previa de investigación para los usuarios de ChatGPT Pro en las últimas versiones de la aplicación Codex, de manera que puedan comenzar a experimentar con esta tecnología.



OpenAI ha advertido igualmente que, dado que el modelo se ejecuta en un 'hardware' especializado de baja latencia, tendrá un límite de velocidad independiente que puede ajustarse según la demanda durante la versión de prueba de investigación.




europapress