Les nouvelles fonctions de la plateforme Zscaler permettent aux organisations de comprendre les applications d’IA et de les construire, de les déployer et de les utiliser en toute sécurité.
Zscaler étend son offre de sécurité de l’IA avec de nouvelles fonctionnalités qui aident les organisations à déployer et à gérer les applications d’IA en toute sécurité. L’accent est mis sur une meilleure compréhension, un meilleur contrôle et une meilleure gouvernance lors de l’utilisation de l’IA générative et basée sur des agents.
lire aussi
Qu’est-ce que Zscaler et comment le prononcer ?
Sécurité pour l’ensemble du paysage de l’IA
Les nouvelles fonctions de la suite Zscaler AI Security offrent aux organisations une vue d’ensemble de tous les éléments d’IA au sein de leur environnement informatique. Il s’agit notamment des outils GenAI, de l’IA intégrée dans les services SaaS, des environnements de développement, des modèles, des agents et de l’infrastructure sous-jacente. En cartographiant ces composants, les entreprises peuvent mieux évaluer les risques et contrôler l’accès aux données.
Selon Zscaler, les solutions de sécurité traditionnelles n’offrent pas une protection suffisante lors de l’utilisation de l’IA. Le trafic de l’IA utilise des protocoles différents et présente un comportement non humain, ce qui rend la détection difficile. La nouvelle suite combine la découverte des actifs, le contrôle d’accès, l’analyse comportementale et l’évaluation des risques. Cela permet aux entreprises de déployer l’IA plus rapidement sans compromettre la sécurité ou la politique.
Trois piliers de sécurité et un soutien à la réglementation
La suite se concentre sur trois scénarios : la compréhension des actifs d’IA, l’accès sécurisé à l’IA et la protection de l’infrastructure et des applications d’IA. Les RSSI et les équipes informatiques disposent d’outils pour détecter l’IA « cachée » et analyser l’utilisation des données. Parallèlement, les contrôles de confiance zéro et l’inspection automatisée permettent une utilisation sûre. Pour les équipes de développement, il existe des mesures de sécurité pour l’ensemble du cycle de vie de l’IA.
Zscaler prend également en charge la conformité avec des cadres tels que le NIST AI Risk Management Framework et la législation européenne sur l’IA. Il existe également des collaborations avec OpenAI, Anthropic, AWS, Microsoft et Google. Enfin, une nouvelle passerelle avec AI Deception est en cours de développement pour détecter et contrer les attaques sur les modèles.
