OpenAI a publié un aperçu de recherche de GPT-5.3-Codex-Spark, un nouveau modèle d’IA spécialement conçu pour les travaux de programmation en temps réel.
GPT-5.3-Codex-Spark est le dernier modèle de code d’OpenAI et est provisoirement disponible en version préliminaire. Il s’agit d’une variante légère de GPT-5.3-Codex et constitue le premier résultat de la collaboration entre OpenAI et Cerebras. Il est optimisé pour une latence extrêmement faible et peut générer plus de 1 000 tokens par seconde, rendant les ajustements de code visibles presque instantanément.
Axé sur la vitesse et l’interaction
Alors que les modèles Codex précédents excellaient principalement dans les tâches autonomes de longue durée, Codex-Spark se concentre explicitement sur la collaboration directe avec les développeurs. Le modèle est destiné aux tâches rapides : petites modifications de code, réorganisation de la logique ou affinement des interfaces, sans temps d’attente. Par défaut, il n’effectue aucun test, à moins que l’utilisateur ne le demande lui-même.
Fonctionne sur le matériel Cerebras
Codex-Spark est hébergé sur le Wafer Scale Engine 3 de Cerebras, un accélérateur conçu pour une vitesse d’inférence élevée. Selon OpenAI, non seulement le modèle a été accéléré, mais l’ensemble de la chaîne requête-réponse l’a également été. Grâce, entre autres, à une connexion WebSocket persistante, le délai avant le premier token a été réduit de 50 %.
L’aperçu est disponible dès aujourd’hui pour les utilisateurs de ChatGPT Pro via l’application Codex, l’interface de ligne de commande (CLI) et l’extension VS Code. Le modèle dispose d’une fenêtre contextuelle de 128 000 tokens et ne peut traiter que du texte pour le moment. L’utilisation n’est pas soumise aux limites standard, mais peut être temporairement restreinte en cas de forte demande.
