OpenAI rend o3-mini largement disponible

openai

OpenAI a mis son LLM o3-mini à la disposition des utilisateurs et des développeurs de ChatGPT.

OpenAI a publié un aperçu de o3-mini, la version la moins chère de o3, en décembre dernier. Le modèle o3 est le principal modèle de raisonnement de la gamme OpenAI, mais o3-mini est plus rapide avec la même latence que o1-mini.

Trois versions

OpenAI a également mis le nouveau modèle à disposition via plusieurs de ses interfaces de programmation d’applications (API). Les développeurs peuvent utiliser les API pour intégrer o3-mini dans leurs applications. La version API du LLM est disponible en trois éditions avec différentes qualités de sortie : o3-mini-low, o3-mini-medium et o3-mini-high.

Les modèles de raisonnement de l’OpenAI se distinguent par la qualité accrue des réponses rapides. Cette qualité est obtenue en augmentant la quantité de matériel nécessaire pour générer chaque réponse. La version d’entrée de gamme de o3-mini, appelée o3-mini-low, utilise le moins d’infrastructure, tandis que o3-mini-high est la plus gourmande en matériel.

OpenAI a rendu o3-mini disponible dans les éditions Free, Plus, Pro et Team de ChatGPT. Cette semaine, il sera étendu à la version Enterprise, écrit SiliconANGLE. Dans les versions Plus et Team, 150 messages peuvent être envoyés par jour, soit trois fois plus qu’avec o1-mini.