Suite aux soupçons d’espionnage industriel par le chinois DeepSeek, OpenAI renforce considérablement ses mesures de sécurité.
OpenAI a adapté sa sécurité interne. Cela serait dû au lancement du modèle R1 de DeepSeek, qui, selon OpenAI, utilisait la distillation pour exploiter des connaissances sensibles du modèle. Depuis, des mesures strictes ont été prises pour mieux protéger la propriété intellectuelle de l’entreprise.
Règles d’accès strictes et protection rigoureuse
Les informations internes sont désormais protégées par un système appelé « tenting » : les employés ne peuvent parler des projets que s’ils appartiennent explicitement à cette « tente », selon le Financial Times. Ainsi, lors du développement du modèle secret « Strawberry » (le nom de projet pour GPT-o1), il a été vérifié si les collègues travaillaient bien sur le même projet, même dans les bureaux.
De plus, les modèles sensibles ne peuvent pas apparaître sur Internet, car ils sont développés dans un environnement hors ligne. Une nouvelle politique garantit que rien ne se connecte facilement à Internet.
Sécurité biométrique et screening
L’accès physique à certaines parties du bureau n’est désormais possible qu’avec des scans biométriques, tels que les empreintes digitales. Les centres de données ont également bénéficié d’une sécurité accrue. De plus, les employés et les candidats sont soumis à un examen plus approfondi, car de nombreuses entreprises de la Silicon Valley se méfient de l’ingérence étrangère.
Bien qu’OpenAI souligne que ces mesures ne sont pas la conséquence d’un seul incident, il est clair que les tensions géopolitiques entre les États-Unis et la Chine incitent l’entreprise à mieux protéger les informations de ses modèles.