AMD défie NVIDIA avec un écosystème d’IA ouvert : puces, logiciels et partenaires

amd en train d'avancer ai
Photo par PaulSakuma.com Photography)

AMD dévoile son idéal platonicien : un écosystème d’IA ouvert et évolutif, s’appuyant sur ses propres GPU, logiciels et infrastructure. Des partenaires tels que Meta, OpenAI et Oracle y participent déjà.

Lors de l’événement Advancing AI 2025, AMD a présenté sa vision d’une plateforme d’IA entièrement intégrée. Au cœur de celle-ci se trouve la technologie propre d’AMD : des nouveaux GPU « Instinct MI350 », une infrastructure de rack ouverte jusqu’à une mise à jour de la pile logicielle ROCm. AMD tend la main aux grands acteurs de l’IA pour concrétiser ce rêve ensemble.

Le fabricant de puces présente les derniers accélérateurs de la série MI350, qui sont lancés considérablement plus tôt que prévu. Selon AMD, les puces MI350X et MI355X offrent un gain de performance quadruple par rapport à la génération précédente. Le MI355X offre en outre jusqu’à 40 pour cent de jetons supplémentaires par dollar par rapport aux solutions alternatives.

Puces, racks et logiciels

L’Instinct MI350 est déployé dans l’infrastructure d’IA hyperscale aux côtés des processeurs Epyc de cinquième génération et des cartes réseau Pensando Pollara. Oracle Cloud Infrastructure est l’un des premiers à déployer cette technologie à grande échelle.

amd mi350x
L’accélérateur MI350X. Source : AMD

AMD a également donné un premier aperçu du rack Helios, qui fonctionnera à l’avenir avec les GPU MI400 et les nouveaux processeurs EPYC Zen 6. Ceux-ci offriraient des performances d’inférence jusqu’à dix fois plus rapides pour les modèles basés sur le Mixture of Experts.

Enfin, AMD a ouvert son Developer Cloud à l’écosystème plus large des développeurs et de l’open source. Cette plateforme offre un accès à un environnement géré pour les projets d’IA avec le support de ROCm 7. AMD vise ainsi à réduire les barrières au développement de l’IA et à stimuler la collaboration au sein d’un écosystème ouvert.

Main tendue

AMD a souligné son approche ouverte en établissant des collaborations avec divers acteurs du paysage de l’IA, et de nombreuses sommités du monde de l’IA acceptent cette main tendue. Meta utilise les GPU Instinct pour l’inférence de ses modèles LLama. OpenAI exécute des modèles GPT sur Azure avec du matériel AMD et collabore au développement des plateformes MI400. Microsoft déploie le MI300X pour ses propres modèles et des modèles ouverts sur Azure.

Parmi les autres partenaires figurent Cohere, qui déploie ses modèles Command sur du matériel AMD, et Red Hat, qui utilise les GPU MI dans OpenShift AI. En outre, Humain s’engage dans une large collaboration avec AMD pour une infrastructure d’IA évolutive. Astera Labs et Marvell participent à la construction de UALink, une norme ouverte pour l’interconnectivité en IA.

Concurrent omniprésent

Avec un écosystème ouvert, AMD cherche à se positionner davantage comme challenger de NVIDIA. AMD semble être pratiquement le seul capable d’y parvenir, bien que NVIDIA soit un obstacle considérable à surmonter. Ces dernières semaines, il est devenu encore plus évident à quel point NVIDIA est omniprésent dans les centres de données d’IA. Lors de sa tournée européenne, Jensen Huang a annoncé une collaboration après l’autre. Chaque partie qui loue AMD est tout aussi désireuse de poser pour une photo avec Huang.

lire aussi

L’IA à la Dell, HPE et Lenovo : la même histoire, déclinée en trois couleurs

Dans un domaine, AMD reste imbattable : les supercalculateurs. Dans la nouvelle liste Top 500 publiée, AMD trône fièrement au sommet avec El Capitan et Frontier. Cependant, NVIDIA n’est jamais loin et grimpe rapidement vers le sommet avec l’ordinateur européen Jupiter.