En lançant GPT-4, OpenAI met la pression sur ses concurrents, et peut donc les pousser à lancer rapidement un produit sans limites de sécurité.
Avec le lancement de GPT-4 la semaine dernière, OpenAI affiche clairement son ambition de devenir un fournisseur majeur dans le domaine de l’IA. La technologie fondée sur le traitement du langage naturel (« Natural Language Processing ») a franchi une étape décisive l’année dernière avec le lancement de ChatGPT. Tout à coup, la technologie était tangible et accessible à tous, avec des résultats souvent impressionnants.
Microsoft a rapidement rejoint OpenAI avec un investissement d’un milliard de dollars, les autres suivent leur propre voie et travaillent vigoureusement à un modèle d’IA concurrent. Dans le cas de Bard, par exemple, Google a sa propre solution qu’il souhaite associer à son moteur de recherche et à Google Workspace.
Ilya Sutskever, cofondateur et directeur scientifique d’OpenAI, explique à The Verge que le développement de GPT-4 n’a pas été facile. « Beaucoup d’entreprises veulent aujourd’hui faire la même chose. En termes de concurrence, on constate que le domaine est en train de mûrir. »
GPT-4 et fiches de sécurité
Il mentionne les risques liés à de tels modèles d’IA. « Nous n’avons pas divulgué grand chose sur le fonctionnement interne de GPT-4. Et ce pour des raisons de sécurité. » Sutskever explique qu’OpenAI a investi beaucoup de temps et d’efforts dans la mise en place de limites. D’autres entreprises n’ont pas l’intention de fixer de telles limites. La société n’a que très peu de temps pour réagir à ce phénomène. Comment devons-nous réglementer ce phénomène ? Comment faire face à cette situation ?
OpenAI travaille avec des fiches de sécurité dans le cadre de GPT-4 pour s’assurer que les informations dangereuses ou sensibles (à la vie privée) ne sont pas partagées. Par exemple, il est impossible de demander comment préparer des produits chimiques dangereux avec du matériel de cuisine.
« Je suis inquiet de voir que ces modèles sont utilisés à grande échelle pour la désinformation », explique Sam Altman, PDG de l’OpenAI. « Ces modèles étant de plus en plus performants dans l’écriture de codes informatiques, ils pourraient être utilisés pour des cyberattaques offensives. »
Débat social
OpenAI a été fondée en 2015 en tant qu’organisation à but non lucratif axée sur le développement sûr et transparent de l’intelligence artificielle. En 2019, elle est passée à un modèle à but lucratif plafonné (« capped profit »), avec Microsoft comme principal investisseur.
Le PDG d’OpenAI se demande comment les gens de demain verront cette période. « Il nous faut du temps pour que les institutions comprennent ce qu’il faut faire. La réglementation devient essentielle. Il faut prendre le temps de comprendre ce qui se passe, comment les gens utilisent ces outils et comment la société peut évoluer avec eux. »