HackerOne lance une directive qui protège juridiquement la recherche sur l’IA menée avec de bonnes intentions, afin que les organisations et les chercheurs puissent collaborer plus sûrement aux tests des systèmes d’IA.
HackerOne a lancé le Good Faith AI Research Safe Harbor. Il s’agit d’une directive qui offre une protection juridique à ceux qui testent les systèmes d’IA avec de bonnes intentions. L’annonce vise à dissiper les incertitudes actuelles concernant la recherche sur l’IA. De nombreux tests d’IA ne relèvent pas des cadres traditionnels de signalement des vulnérabilités, ce qui crée des risques pour les chercheurs. Ce nouveau cadre devrait résoudre ce problème.
Au-delà du cadre existant
La directive s’appuie sur le Gold Standard Safe Harbor de HackerOne de 2022, qui offrait déjà une protection pour la recherche classique sur les logiciels. Les deux directives déterminent comment les organisations peuvent explicitement autoriser et protéger les chercheurs lors de la détection des vulnérabilités.
Lorsque les organisations adoptent le cadre, elles s’engagent à ne pas engager de poursuites judiciaires contre les chercheurs qui testent les systèmes d’IA de bonne foi. Elles prévoient également des exceptions aux conditions d’utilisation restrictives et offrent un soutien lorsque des tiers déposent une plainte. La protection ne s’applique qu’aux systèmes d’IA que l’organisation gère ou possède elle-même.
Norme pour des tests d’IA sécurisés
Selon HackerOne, une communication claire est essentielle pour garantir la sécurité des systèmes d’IA. Les organisations souhaitent faire tester leur IA, mais les chercheurs doivent être sûrs qu’ils ne rencontreront pas de problèmes juridiques pour autant. Le nouveau cadre doit combler ce fossé.
La directive est disponible pour les clients de HackerOne en tant que cadre distinct, indépendant du Gold Standard existant. Les organisations participantes indiquent ainsi que la recherche sur l’IA est la bienvenue, ce qui devrait améliorer la qualité des tests et de la collaboration.
