« Conseil de sécurité indépendant » d’OpenAI pour empêcher les lancements de modèles

openai

L’OpenAI met en place un nouveau comité indépendant pour veiller aux critères de sécurité des modèles d’IA, avec le pouvoir de retarder de nouveaux lancements.

L’OpenAI a révélé dans un billet de blog qu’elle transformait son « comité de sûreté et de sécurité » (SSC) en un « comité de surveillance indépendant du conseil d’administration ». Ce comité a le pouvoir de bloquer le lancement de modèles d’IA s’ils ne répondent pas aux critères de sécurité. Selon OpenAI, le comité opère de manière indépendante, mais si c’est vraiment si évident, reste à savoir. Les membres de ce comité de sécurité sont également membres du conseil d’administration de l’entreprise.

« Commission indépendante »

OpenAI prévoit de nombreux changements. Récemment, il a été annoncé que l’entreprise prévoyait de passer d’une organisation à but non lucratif à une organisation à but lucratif. Aujourd’hui, l’entreprise a annoncé dans un billet de blog qu’elle transformera son comité de sûreté et de sécurité (« Safety and Security Committee », SSC) en un comité de sécurité indépendant. Le SSC aura le pouvoir de bloquer le lancement de modèles d’IA si les critères de sécurité ne sont pas respectés.

Ainsi, « le SSC a examiné les critères de sûreté et de sécurité utilisés par OpenAI pour évaluer dans quelle mesure OpenAI o1 pouvait être lancé, ainsi que les résultats des évaluations de sécurité d’OpenAI o1 », a déclaré OpenAI. Le nouveau comité indépendant sera présidé par Zico Kolter et enverra au conseil d’administration d’OpenAI « des rapports périodiques sur les questions de sûreté et de sécurité ». Bien qu’OpenAI qualifie le comité d’indépendant, ses membres font partie du conseil d’administration d’OpenAI. Le cadre supérieur Sam Altman lui-même ne fait pas partie du comité.

newsletter

Abonnez-vous gratuitement à ITdaily !

Category(Required)
This field is for validation purposes and should be left unchanged.