Anthropic conclut un accord de plusieurs milliards avec Google pour l’utilisation de puces IA

Anthropic conclut un accord de plusieurs milliards avec Google pour l’utilisation de puces IA

Anthropic utilisera les TPU Google Cloud pour entraîner et exécuter Claude.

Google et Anthropic ont conclu un accord pluriannuel qui, selon les experts, pourrait valoir des dizaines de milliards de dollars. L’accord donne à Anthropic accès à un million de TPU Google Cloud (tensor processing units). Ce sont les puces IA spécialisées avec lesquelles l’entreprise entraîne et exécute ses modèles Claude.

Une puissance de calcul coûteuse

Anthropic indique qu’elle choisit les TPU de Google en raison de leur faible consommation et de leur rapport qualité-prix. D’ici 2026, Anthropic aura accès à plus d’un gigawatt de puissance de calcul, pour un coût estimé à 50 milliards de dollars par an.

Les entreprises d’IA, comme OpenAI, ont conclu plusieurs accords avec des entreprises cette année. Elles ont besoin d’accéder aux ressources des centres de données pour entraîner leurs LLM. Anthropic opte pour les TPU de Google en raison de leur rapport qualité-prix et de leur faible consommation.

Concurrence avec AWS

Jusqu’à récemment, Amazon était le partenaire privilégié en matière de processeurs, mais maintenant Anthropic va également utiliser les puces TPU de Google. Amazon a déjà investi 8 milliards de dollars dans Anthropic, contre 3 milliards pour Google, et fournit les puces Trainium 2 sur lesquelles fonctionne le Project Rainier.

Anthropic fait savoir qu’elle « reste déterminée à collaborer avec Amazon », écrit SiliconANGLE. L’entreprise souhaite combiner les puces AWS Trainium, les TPU Google et les GPU Nvidia pour répartir les risques et garantir la disponibilité. Cette approche a porté ses fruits cette semaine, lorsque Claude est resté en ligne pendant une panne majeure d’AWS.