Lors du Nutanix Next 2026 à Chicago, l’entreprise a esquissé un monde dans lequel des agents d’IA autonomes consomment des tokens en continu, de manière exponentiellement plus élevée que ce qu’un humain ne pourra jamais taper. Une telle évolution nécessite une couche d’infrastructure fiable pour les entreprises, où les agents fonctionnent de manière sécurisée, contrôlée et évolutive.
À l’ère de ChatGPT, la consommation de tokens était limitée par la vitesse de frappe d’un être humain. L’entrée était liée à l’activité humaine, les questions étaient assez simples. Avec les agents autonomes de longue durée, la situation change radicalement. Les agents communiquent avec d’autres agents, les dirigent et exécutent de manière autonome des flux de travail complexes. « Cela crée une demande exponentielle de tokens », déclare Debo Dutta, Chief AI Officer chez Nutanix.
Dutta illustre cela par une démonstration en direct sur scène. Son équipe a conçu une application logicielle complète sur la plateforme Nutanix à l’aide d’OpenClaw. Plusieurs agents ont collaboré : un agent principal, un agent backend et un agent frontend. Le résultat ? Un logiciel fonctionnel, enregistré sur GitHub, en moins d’une demi-journée. Coût : environ 6 à 7 millions de tokens.
« Celui qui envoie des agents faire les courses paie en tokens », prévient Dutta. « Et chaque entreprise ne dispose que d’un nombre limité de GPU. »

Le plombier qui n’échoue jamais
Nutanix choisit délibérément un rôle modeste mais crucial dans l’écosystème de l’IA. Dutta établit une comparaison claire : « Nutanix veut être le plombier, pas le décorateur d’intérieur. » L’entreprise ne construit pas d’agents et ne développe pas ses propres modèles de fondation. En revanche, elle fournit l’infrastructure sur laquelle les clients peuvent exploiter leurs usines d’IA de manière sécurisée et évolutive.
Cette infrastructure se compose de plusieurs couches. À la base se trouve l’hyperviseur AHV avec des optimisations GPU. Au-dessus fonctionne la Nutanix Kubernetes Platform (NKP). La troisième couche est Nutanix Enterprise AI (NAI) version 2.6, dotée d’une passerelle IA (AI Gateway) qui sert de point d’accès contrôlé pour les LLM locaux et externes de fournisseurs tels qu’Anthropic, Google et OpenAI.
Cette passerelle offre un contrôle précis du RBAC (Role Based Access Control), des limites de tokens par utilisateur et un accès sécurisé aux serveurs MCP. Précédemment, ITdaily avait déjà fait état de l’intégration profonde de Nvidia dans NAI lors du Next de l’année dernière, alors que le produit s’appelait encore GPT-in-a-Box. Le passage à une pile complète d’usine d’IA est considérable.
Les agents autonomes et leurs dangers
Dutta a averti que l’exécution d’agents autonomes sans garde-fous est dangereuse. OpenClaw sur un ordinateur portable ordinaire n’offre aucune protection : l’agent peut supprimer des données, accéder à des systèmes de manière incontrôlée ou divulguer des informations sensibles. « Vous ne voulez pas que votre agent supprime discrètement votre dépôt GitHub », a déclaré Dutta.
Nutanix y répond par une isolation au niveau de l’hyperviseur, une microsegmentation via Flow Virtual Networking et du sandboxing via des conteneurs sur NKP. Les clients choisissent s’ils souhaitent exécuter les agents dans une couche de conteneurs ou via une isolation complète par hyperviseur. De plus, l’AI Gateway surveille quels modèles et outils chaque agent est autorisé à utiliser, et empêche les agents de divulguer des PII ou des jetons d’accès vers des systèmes externes.
Combiner rapidité et sécurité
Comment combiner rapidité et sécurité dans un marché qui évolue plus vite que n’importe quel autre marché que Dutta a connu dans sa carrière ? La réponse : des versions trimestrielles. Six versions consécutives livrées à temps, a-t-il souligné. En un trimestre, l’équipe peut écrire de nouvelles fonctionnalités, effectuer des tests approfondis sur les vulnérabilités de sécurité et valider les modèles. Lorsqu’un nouveau modèle tel que Gemma 4 de Google ou Nemotron de Nvidia apparaît, il suit un processus de test rigoureux avant que Nutanix ne le supporte officiellement.
Ce processus de test comprend le dimensionnement, les tests de vulnérabilité et la garantie que tout peut fonctionner dans un environnement « air-gapped » – essentiel pour les clients des secteurs réglementés. Parallèlement, Nutanix propose un mode sandbox pour les clients souhaitant utiliser la toute dernière version de vLLM ou d’autres outils, pendant que l’entreprise prépare le support de classe entreprise. C’est un équilibre pragmatique : assez rapide pour rester pertinent, assez approfondi pour être fiable.
« Nous ne participons pas à la course aux armements des modèles d’IA ou des frameworks d’agents », conclut Dutta. L’entreprise mise sur la couche d’infrastructure juste en dessous : gouvernance des tokens, sandboxing sécurisé et accès partagé aux GPU. Dans un monde où les tokens deviennent plus rares et plus chers, et où les agents fonctionnent de manière autonome et durable, c’est précisément la couche où les entreprises risquent de perdre le contrôle. Nutanix veut s’assurer que cela n’arrive pas.
