Comment garder le contrôle sur les agents d’IA avant qu’une injection de prompt ou qu’un agent égaré ne paralyse un système de production ? Leur réponse se situe à l’intersection des modèles probabilistes et des garde-fous déterministes, avec l’identité comme point d’ancrage.
Lors de Knowledge 26 à Las Vegas, ServiceNow se positionne comme la tour de contrôle de l’IA d’une entreprise. Sous ce positionnement se cache une question de sécurité fondamentale : comment donner aux agents d’IA assez d’autonomie pour accomplir un travail utile, mais pas au point qu’ils puissent causer des dommages de manière incontrôlée ?
Nous avons posé la question à deux personnes qui y travaillent quotidiennement chez ServiceNow : Nenshad Bardoliwalla, GVP of AI Product Management, et Bhakti Pitre, VP of Platform Security.
L’IA seule ne suffit pas
Bardoliwalla a quitté Google Cloud pour ServiceNow car il est convaincu que les modèles eux-mêmes vont se banaliser. « Les modèles sont incroyablement puissants. Mais en soi, ils ne sont suffisants que pour certaines situations au sein des entreprises. Ils doivent être enveloppés d’auditabilité, de processus, de flux de travail et de routage. »
« Les systèmes probabilistes (des modèles d’IA qui parient sur la réponse la plus probable) doivent être encadrés par une réglementation déterministe (des règles et des limites fixes). Sans cela, vous n’avez aucun moyen de les maîtriser. »
Il illustre cela par un exemple qui se produit déjà dans la pratique : un attaquant insère un fragment de texte dans un prompt indiquant que la politique de mot de passe a été modifiée. Le modèle l’accepte et donne accès à des données protégées.
Il existe très peu, voire aucune situation en entreprise où une solution pure d’agents d’IA est la bonne réponse
Nenshad Bardoliwalla, GVP of AI Product Management
Selon lui, la solution n’est pas de rendre le modèle plus intelligent, mais d’ajouter une couche via l’AI Control Tower qui détecte et bloque une telle escalade de privilèges en temps réel. La déclaration la plus frappante survient lorsque nous l’interrogeons sur la plus grande idée reçue des CIO et CDO :
« Il existe très peu, voire aucune situation en entreprise où une solution pure d’agents d’IA est la bonne réponse », déclare Bardoliwalla. « C’est une technologie probabiliste. La plupart des entreprises et la plupart des processus ne veulent pas de processus probabilistes. »
C’est une déclaration remarquable de la part d’un responsable des produits d’IA dans une entreprise qui se positionne comme l’acteur incontournable des agents d’IA en entreprise. Cela montre que la rhétorique de la scène principale et la conversation avec la presse appartiennent à deux registres différents.
Du zero trust aux zero privileges
Bhakti Pitre souligne lors de Knowledge 26 que le zero trust pour les identités humaines n’est pas la même chose que ce dont les agents ont besoin.
« Le zero trust concerne les privilèges minimaux. Lorsque je suis idle, j’ai toujours certains droits d’accès, seulement limités au strict minimum. Avec le zero privileges, je n’ai aucun accès en état d’inactivité. Ce n’est que lorsque j’entre en action en tant qu’agent que je reçois les droits pour lesquels je suis autorisé. »
C’est une formulation intéressante, mais ce n’est pas une invention de ServiceNow. Le concept circule en 2026 dans l’industrie de la sécurité au sens large sous le nom de « Zero Standing Privileges ». CyberArk et Palo Alto Networks, entre autres, en ont chacun leur propre variante. Ce que ServiceNow y ajoute d’unique selon Pitre, c’est la combinaison avec l’access graph de Veza et le cyber asset graph d’Armis. Plus le fameux kill switch dans l’AI Control Tower :
« Des choses iront mal, surtout dans cette phase initiale. C’est comme avec les enfants : en grandissant, ils font des erreurs. En tant que parent, il est de votre responsabilité de placer des garde-fous autour d’eux. Il en va de même pour l’IA : sécurité intégrée, gestion et risques, plus la possibilité de tout arrêter si cela dérape. »
Reconnaître que l’IA en production fera aussi des erreurs est un point de départ plus honnête que la rhétorique « la peinture n’est pas fraîche » du CEO Bill McDermott sur la scène principale.
L’évolution comme constante
Pitre fait un détour par Charles Darwin pour cadrer le chaos actuel de l’IA :
« Quand j’étais jeune, L’Origine des espèces était mon livre préféré. Je le relis maintenant avec l’IA à l’esprit. Ce que j’en retire plus que jamais : l’évolution est LA constante. En tant que race humaine, nous avons toujours survécu parce que nous étions agiles et ouverts au changement. »
En tant que race humaine, nous avons toujours survécu parce que nous étions agiles et ouverts au changement.
Bhakti Pitre, VP of Platform Security
À la question de savoir qui est responsable lorsqu’un agent se comporte mal, elle répond : « Il est impossible pour un éditeur de logiciels de savoir exactement comment vos données sont utilisées. Je ne vois pas les données de mes clients, et c’est ainsi que cela doit être. Mais cela signifie aussi que je ne peux pas affirmer de manière indépendante quel sera l’impact d’un processus d’IA. C’est pourquoi ces garde-fous sont si cruciaux : c’est une responsabilité partagée. »
Une remarque honnête qui manque souvent dans les documents marketing. ServiceNow fournit les outils, mais celui qui configure mal les règles en assume les conséquences.
Sous le capot
Les deux entretiens montrent à quoi ressemble l’histoire de ServiceNow sous le capot. Sur la scène principale, les agents d’IA résonnent comme une force irrésistible, tandis qu’à côté, une prudence bien plus grande s’exprime. Bardoliwalla admet que déployer des agents d’IA purs dans une entreprise n’est presque jamais la bonne réponse. Pitre reconnaît que les systèmes feront des erreurs dans cette phase.
Ce récit nuancé contraste avec le positionnement que l’entreprise affiche sur le marché. Le fait que l’approche zero privileges soit également revendiquée par au moins une demi-douzaine d’autres fournisseurs de sécurité illustre le fait que ServiceNow n’est pas seul dans l’arène.
La combinaison avec le workflow, la CMDB (Configuration Management Database) et les acquisitions de Veza, Armis et Traceloop donne toutefois à l’entreprise une prétention crédible à fournir une gestion au niveau de la plateforme.
Pour les entreprises qui doivent prendre des décisions maintenant, ce sont les enseignements les plus utiles de toute la conférence. Non pas les promesses d’autonomie, mais la reconnaissance que les systèmes probabilistes ne deviennent utiles que s’ils sont délimités de manière déterministe. Et que la responsabilité reste toujours partagée entre la plateforme et le client.
