Les deux nouveaux modèles fonctionnent sous licence Apache 2.0 et excellent en raisonnement et en rapidité.
OpenAI a présenté mardi GPT-OSS, une nouvelle série de modèles de langage à poids ouverts. GPT-OSS est la première version ouverte de l’entreprise depuis GPT-2 en 2019. Les modèles sont disponibles en deux formats : 117 milliards et 21 milliards de paramètres. Ils offriraient des performances comparables à o4-mini et o3-mini.
Plus rapide grâce au Mixture of Experts
Les modèles utilisent une architecture Mixture-of-Experts, où seule une partie des sous-modèles est active pour chaque prompt. Ils sont ainsi plus rapides et plus efficaces que les modèles classiques de taille équivalente. La version 120B fonctionne sur un seul GPU H100 de 80 Go, la variante 20B se contente de 16 Go de VRAM.
Les modèles fonctionnent sous licence Apache 2.0, ce qui signifie qu’ils sont aussi ouverts que possible. OpenAI a entraîné les modèles sur des ensembles de données en anglais axés sur la science, le codage et les connaissances générales. Ils prennent en charge des fenêtres contextuelles jusqu’à 128 000 tokens.
Protection contre les abus
OpenAI affirme utiliser des filtres stricts pour prévenir les abus, notamment concernant les applications chimiques dangereuses. Les testeurs n’ont pas pu tromper le modèle pendant le développement, et une récompense de 500 000 dollars est offerte à quiconque découvre une vulnérabilité.
Les deux modèles sont disponibles gratuitement sur Hugging Face. Pendant ce temps, le PDG d’OpenAI Sam Altman a fait allusion sur X à une mise à jour majeure cette semaine. Aurons-nous peut-être plus d’informations sur GPT-5 ?