Meta prévoit d’investir jusqu’à 65 milliards de dollars d’ici 2025 pour porter à 1,3 million le nombre total de GPU disponibles au sein de l’entreprise. Cette annonce contraste fortement avec les récents développements de l’IA en Chine.
Le méta-PDG Mark Zuckerberg déclare sur son fil concurrent X que son entreprise souhaite investir 60 à 65 milliards de dollars dans l’IA d’ici 2025. Ce budget est principalement destiné à l’achat de nouveaux accélérateurs. D’ici la fin de l’année, Meta souhaite disposer de plus de 1,3 million de GPU. Le nombre de GPU que l’entreprise possède déjà n’est pas clair.
Meta utilisera cette infrastructure pour développer son modèle Llama 4. Zuckerberg prévoit que le Llama 4 sera le meilleur modèle, bien que la manière dont il mesure cela et la raison pour laquelle il suppose que le Llama 4 sera plus puissant que les modèles de concurrents tels qu’OpenAI ne soient pas clairs.
Investissement utile
Cette annonce intervient à peu près au même moment que des nouvelles intéressantes sur l’IA en provenance de Chine. Dans ce pays, les chercheurs mettent le modèle Deepseek R1 à la disposition des utilisateurs. Deepseek R1 est censé être compétitif par rapport aux LLM existants, mais il a été formé différemment. Les Chinois auraient dépensé à peine 6 millions de dollars pour former le modèle, soit environ 5 % de l’investissement que de grandes entreprises américaines telles que Meta et OpenAI ont dû consentir pour leurs LLM.
On ne sait pas encore si Deepseek R1 est vraiment compétitif. Si le modèle donne effectivement des résultats satisfaisants, il remet en question la nécessité d’investir des milliards dans des infrastructures d’IA gourmandes en énergie.