Microsoft souhaite intégrer le modèle Claude Mythos d’Anthropic dans son processus interne de développement logiciel afin de créer du code sécurisé.
Microsoft révèle comment elle entend utiliser la technologie de l’IA pour un développement logiciel plus sûr. Nous apprenons via le blog que Microsoft est l’une des parties ayant accès à Claude Mythos d’Anthropic, le modèle d’IA qui fait trembler le monde de la sécurité depuis des semaines. Microsoft souhaite implémenter le modèle directement dans le cycle de développement pour détecter les vulnérabilités du code.
Le développement de code plus sûr est l’un des trois domaines de sécurité où Microsoft souhaite miser davantage sur l’IA. Outre le développement de produits de sécurité alimentés par l’IA, cette technologie doit également servir à informer plus rapidement les entreprises des risques de sécurité et à les atténuer.
Testé et approuvé
Éviter les vulnérabilités reste le meilleur remède contre les incidents de sécurité, et de préférence le plus tôt possible dans le processus de développement. Pour ce faire, Microsoft souhaite utiliser le modèle de sécurité IA d’Anthropic. Via le programme Project Glasswing d’Anthropic, elle fait partie des rares parties approuvées ayant accès au modèle.
En peu de temps, Claude Mythos s’est déjà montré très compétent pour détecter des vulnérabilités. Plus de mille failles auraient déjà fait surface grâce à Mythos, dont une vulnérabilité restée inaperçue pendant 27 ans. Mozilla, l’entreprise derrière le navigateur Firefox, a déjà détecté 271 vulnérabilités avec l’aide de Claude Mythos.
Microsoft déclare avoir soumis Mythos à des tests approfondis. Elle se réfère pour cela au benchmark CTI-REALM, un test permettant d’évaluer les capacités de sécurité des modèles d’IA, co-développé par Microsoft. Claude Mythos est arrivé en tête de ce benchmark. En intégrant Claude Mythos dans le processus de développement, Microsoft espère détecter et atténuer les vulnérabilités dès les premiers stades.
À huis clos
Cela fait maintenant deux semaines qu’Anthropic a présenté son modèle Claude Mythos au monde, et il n’a pas quitté l’actualité depuis. Le secteur de la banque et de l’assurance redoute des scénarios catastrophes, tandis que les experts en sécurité et les gardiens d’infrastructures critiques veulent à tout prix figurer sur la liste des invités. L’agence américaine de cybersécurité, la NSA, fait même fi d’un embargo contre Anthropic.
C’est précisément parce que Mythos s’est montré si habile à débusquer les vulnérabilités que l’on craint ce qui pourrait arriver s’il tombait entre de mauvaises mains. Claude Mythos est potentiellement si puissant que le piratage de logiciels deviendrait un jeu d’enfant, redoutent les opposants et les alarmistes. Cette crainte n’est plus si théorique : on a appris cette semaine que des « utilisateurs non autorisés » ont réussi à contourner le verrou sous lequel Claude Mythos est gardé.
Douloureux pour OpenAI
Le fait que Microsoft choisisse précisément Claude Mythos d’Anthropic est un affront pour OpenAI. À peine quelques jours après le lancement de Mythos, OpenAI a tenté de s’accaparer les projecteurs avec son propre modèle de cybersécurité. Pourtant, personne ne parle de GPT-5.4-Cyber : même le partenaire le plus fidèle d’OpenAI préfère Anthropic. Microsoft collabore avec Anthropic depuis un certain temps déjà : les applications 365 bénéficient également d’une intégration avec Claude.
Redmond a elle-même des choses à se faire pardonner en matière de sécurité. Depuis de nombreuses années, Microsoft essuie les critiques du monde de la sécurité sur la manière dont l’entreprise gère les vulnérabilités et les incidents de sécurité.
