Les agents d’IA peuvent résoudre des problèmes plus complexes, mais c’est précisément ce qui les rend plus sensibles aux erreurs. Plus nous confions de travail aux agents d’IA, plus la supervision humaine devient importante.
Les agents d’IA sont partout de nos jours. Une annonce liée à l’IA n’est plus pertinente si le mot « agentique » ne s’y trouve pas. Cette nouvelle grande étape pour l’intelligence artificielle promet beaucoup, mais qu’est-ce qu’un agent d’IA exactement et comment les mettre au travail dans votre entreprise ? Bert Vanhalst, consultant en recherche pour Smals Research, discute des possibilités et des risques que les agents d’IA introduisent.
D’abord penser, ensuite agir
Les agents d’IA sont construits sur les mêmes fondations que les chatbots génératifs tels que ChatGPT et Copilot, à savoir les LLM ou grands modèles linguistiques. La différence réside dans la façon dont ils abordent les problèmes. Vanhalst : « Nous connaissons tous ChatGPT qui peut, par exemple, générer et résumer des textes, mais il s’agit d’une opération ponctuelle ».
« Avec les agents d’IA, nous pouvons travailler par itérations pour diviser les grands problèmes en étapes partielles et contrôler le résultat intermédiaire. On raisonne d’abord sur l’étape suivante, puis on l’exécute, dans une boucle continue », explique Vanhalst. « Avec un chatbot classique, vous effectuez vous-même ces itérations en ajustant le résultat. »
Un agent d’IA est donc différent d’un autre. « Aujourd’hui, on appelle rapidement quelque chose un agent d’IA, parce que ça se vend bien », remarque Vanhalst. « Mais il s’agit de tout un spectre de systèmes simples et complexes. Un système ne doit pas toujours être complexe. Certains problèmes peuvent être résolus avec un modèle linguistique simple, voire sans aucune IA. Je recommande toujours de d’abord regarder la solution la plus simple. »
Certains problèmes peuvent être résolus avec un modèle simple, voire sans aucune IA.
Bert Vanhalst, consultant en recherche chez Smals Research
Le bon outil
Les agents d’IA ont la capacité de penser par eux-mêmes, à condition que vous leur donniez des instructions claires. Vanhalst : « En tant qu’utilisateur, vous déterminez un cadre. Celui-ci comprend des critères pour ce qu’est l’objectif et quand il est atteint, par exemple le contenu, la longueur ou le style d’un texte. Les agents d’IA peuvent toutefois être dynamiques en ce qui concerne l’objectif final ».
Le constructeur détermine quels moyens un agent d’IA peut utiliser pour atteindre l’objectif. « Les outils à utiliser et dans quel ordre, cette décision est laissée au modèle. Les modèles sont capables de raisonner de manière autonome à ce sujet », ajoute Vanhalst.
Ce processus est appelé dans le jargon tool calling. Il explique le concept : « Finalement, le modèle aboutit à un résultat structuré avec le nom de l’outil et les paramètres d’entrée. Les modèles sont également capables de les extraire d’une entrée non structurée. Le résultat n’est en fait pas l’exécution de l’outil, mais la détermination de quel outil est appelé pour quoi ».
« Ainsi, vous arrivez finalement à un résultat. Cela peut être le résultat final, ou une étape partielle. Dans le cas d’une étape partielle, cela revient au modèle linguistique, qui raisonne à nouveau pour savoir si d’autres outils doivent être appelés pour arriver au résultat final », explique Vanhalst.
Ne pas faire confiance aveuglément
Les modèles d’IA sont susceptibles d’avoir des hallucinations et il en va de même pour les agents, selon Vanhalst. « Le raisonnement doit souvent se faire sur des données incomplètes ou dans un contexte incertain. Le risque d’erreurs est réel, précisément parce que les agents d’IA sont utilisés pour des problèmes complexes. Il est donc important de surveiller la qualité du résultat. »
« Déterminer où ça se passe mal et rectifier le tir est un processus intensif », explique Vanhalst. Les grands modèles linguistiques ont un caractère non déterministe : une entrée peut produire différents résultats. Il y a beaucoup de choses qui peuvent mal tourner. D’où la nécessité d’évaluer les systèmes en profondeur et de garder une vue d’ensemble humaine une fois que le système est mis en production. »
Selon Vanhalst, chaque utilisateur a une responsabilité à cet égard. « Commencer à faire confiance aveuglément aux systèmes d’IA est certainement un risque, même si vous remarquez que le modèle fonctionne bien. Des directives sont nécessaires pour continuer à effectuer cette validation humaine. Un jour, nous pourrons peut-être être suffisamment sûrs pour des choses moins critiques, mais ce ne sera pas pour demain. »
Vanhalst préfère se tenir à l’écart de la discussion sur les pourcentages d’erreurs « acceptables » pour les agents d’IA. « Dans certaines situations, il est moins grave qu’une erreur soit commise, s’il s’agit d’une suggestion par exemple. Mais si la décision d’un système d’IA a un impact sur les personnes, il y a des conséquences. Quand est-ce que c’est « assez bien » ? Nous devons apprendre à gérer cela. »
Faire confiance aveuglément à l’IA est un risque.
Bert Vanhalst, consultant en recherche chez Smals Research
L’IA comme junior
Les gens peuvent faire des erreurs, certains affirmeront même que c’est nécessaire de temps en temps. Pourquoi attendons-nous alors la perfection de l’intelligence artificielle ? Vanhalst cherche une explication. « Nous avons l’habitude que les ordinateurs donnent le bon résultat. Nous les programmons ainsi, donc ça doit être juste, même si des erreurs s’y glissent tout autant. »
lire aussi
Les agents d’IA sont-ils vos collègues ? Pas vraiment, mais un peu quand même, insinue Workday
Il décrit la génération actuelle d’agents d’IA comme des juniors. « Au début, vous allez également suivre et encadrer les nouveaux employés de plus près. Si nous constatons qu’ils fournissent un travail fiable après un certain temps, nous les laissons partir petit à petit. Je pense que nous allons voir la même chose avec les agents d’IA. Nous devons d’abord voir s’ils fonctionnent « assez bien », et je ne dis pas « parfaitement » à dessein, avant de leur faire confiance. »
Allons-nous alors voir les agents d’IA évoluer vers des seniors, comme le prédit Sam Altman, le patron d’OpenAI ? Vanhalst est plus prudent : « Chaque fournisseur se lance aujourd’hui et on promet beaucoup. Les fournisseurs améliorent leurs modèles, mais vous devez encore souvent intégrer vous-même un mécanisme de feedback. »
Le travail ne fait que commencer
Vanhalst recommande d’abord d’apprendre à marcher prudemment avec l’IA avant de courir. « Vous pouvez généralement mettre en place quelque chose rapidement avec la technologie, mais le défi réside dans la surveillance de la qualité. Mettre un système « prêt pour la production » est un long chemin. Mais le travail ne commence réellement qu’une fois que le système est mis en production, car vous obtenez alors l’utilisation effective par les utilisateurs finaux. Vous devez alors commencer à évaluer. »
« La difficulté est que vous vous retrouvez avec un résultat non déterministe. Cette évaluation nécessite encore souvent un travail manuel », prévient Vanhalst. « Vous devez contrôler le résultat par résultat pour vérifier s’il était correct et déboguer si nécessaire. Nous examinons nous-mêmes une manière d’automatiser ce processus d’évaluation. Paradoxalement, nous réactivons des modèles linguistiques pour cela. »
Vanhalst ne veut absolument pas dissuader les entreprises de se lancer avec les agents d’IA, mais en étant attentif aux risques. « C’est un monde passionnant. Il est utile de rechercher des cas, sans s’attendre à ce que les agents d’IA résolvent soudainement tout. Un bon équilibre coûts-avantages est important. »
Cette contribution rédactionnelle a été réalisée en collaboration avec notre partenaire Smals.