Le conseil municipal d’Amsterdam suspend un projet d’essai avec Microsoft Copilot en raison de « risques élevés pour la vie privée ». Un avertissement pour toutes les organisations qui utilisent Copilot ?
La municipalité d’Amsterdam a pris une décision surprenante : un projet d’essai avec Microsoft Copilot sera temporairement interrompu. Cette décision fait suite à une analyse négative de la sécurité des données de Microsoft Copilot, publiée en décembre par la division de la gestion stratégique des fournisseurs (SLM) du ministère de la justice. Le rapport a identifié des « risques élevés » en matière de protection de la vie privée et de sécurité des données.
La SLM attribue la cause des risques au manque de transparence de Microsoft en matière de traitement des données personnelles. Elle ne déconseille pas nécessairement l’utilisation de Copilot, mais elle invite les organisations gouvernementales à prendre des mesures supplémentaires, telles que la formation du personnel à l’utilisation de Copilot.
Coûts et avantages
Le conseil municipal d’Amsterdam choisit d’interrompre temporairement le projet pilote jusqu’à ce que Microsoft résolve les risques. Amsterdam est plus souvent méfiante à l’égard des technologies, le conseil municipal ayant déjà interdit à ses employés d’utiliser Telegram. « Les risques identifiés signifient que cette technologie ne peut pas être utilisée de manière sûre et légale au sein de notre organisation à l’heure actuelle », a déclaré le conseil municipal par l’intermédiaire de l’Association néerlandaise des municipalités.
Cette même association vient d’encourager l’utilisation de Copilot dans un contexte gouvernemental. Les organisations doivent évaluer les risques par rapport aux avantages que Copilot peut leur offrir, semble-t-il. Le gouvernement flamand a récemment conclu un contrat pour dix mille licences avec Microsoft. Les avis sur Copilot, ainsi que sur d’autres outils d’IA générative, sont donc partagés.
Copilote : aide ou fardeau ?
Après avoir lu cet article, envisagez-vous de résilier votre abonnement à Copilot ? Ce n’est pas nécessaire, mais sachez qu’il y a des risques. Si vous utilisez Copilot dans le cadre d’une formule payante, Microsoft vous offre plus de protection que si vous utilisiez gratuitement des outils d’IA. Copilot respecte les modèles d’autorisation au sein de Microsoft 365 et utilise le cryptage et la surveillance pour empêcher l’exposition involontaire de données.
lire aussi
Microsoft Copilot : une aide ou un poids ?
Au sein de l’UE, Microsoft est tenu de respecter les lois sur les données et la protection de la vie privée, telles que le GDPR et la loi sur la protection des données. Cela n’élimine pas tous les problèmes liés au stockage et au traitement des données personnelles. L’injection rapide et l’utilisation abusive du contenu généré par l’IA posent également des problèmes, tout comme l’intégration avec des applications externes et des plug-ins.
Une mise en œuvre délibérée et contrôlée est essentielle pour minimiser les risques. Microsoft souhaite lier Copilot de manière inextricable aux applications 365, ce qui signifie qu’il sera impossible de refuser l’accès à Copilot à long terme. Définissez des accords et des limites clairs sur ce qui peut et ne peut pas être fait et, si nécessaire, proposez une formation pour apprendre aux employés à utiliser les outils d’IA de manière responsable.