L’IA est humaine : tout aussi oublieuse et facile à manipuler

L’IA est humaine : tout aussi oublieuse et facile à manipuler

Les grandes entreprises d’IA présentent leurs systèmes comme des oracles omniscients. Les utilisateurs non critiques font donc aveuglément confiance à l’IA, alors que le cerveau artificiel est tout aussi imparfait que le cerveau humain.

OpenAI, Google, Anthropic et d’autres entreprises d’IA se vantent de savoir qui possède le modèle le plus « intelligent ». À chaque génération, elles mettent en avant des benchmarks qui prouvent que le nouveau modèle est encore meilleur en matière de raisonnement, de pensée analytique, de compréhension linguistique et d’autres compétences intellectuelles qui distinguent l’homme du règne animal. Selon Sam Altman, ce n’est qu’une question de temps avant que l’IA ne surpasse le cerveau humain.

L’IA est injectée de plus en plus profondément dans les logiciels et les services web que nous utilisons quotidiennement. Il est donc tentant pour l’homme de devenir paresseux. Vous n’avez plus besoin de chercher vous-même des informations ou de lire des textes : l’IA le fait pour vous. Les experts qui ne sont pas sur la liste de paie des grandes entreprises technologiques mettent en garde contre ce danger.

Les systèmes artificiels ne sont pas les oracles omniscients que nous espérons parfois qu’ils soient. Au contraire, dans l’état actuel de la technologie, ils sont très humains. Cela signifie qu’ils peuvent faire beaucoup de choses, mais qu’ils présentent aussi les mêmes défauts que les humains.

Oups, oublié

Tout le monde oublie parfois quelque chose. Le cerveau artificiel aussi, prévient Steve Brazier, président et CEO de Canalys, dans son discours lors du Dustin Inspiration Day à Bruxelles. Il affirme que les chatbots d’IA se « fatiguent » et ne font plus attention aux longues invites textuelles. Par conséquent, ils ne se souviennent que du début et de la fin, mais tout ce qui se trouve au milieu, le chatbot l’a déjà oublié au moment où vous avez fini de taper.

De plus, l’IA n’a qu’une mémoire à court terme, nous apprend Brazier. Si vous démarrez une nouvelle session le matin, le système d’IA moyen ne se souvient presque plus de vos conversations d’hier. Tout comme vous avez probablement oublié le sujet de la dernière réunion d’équipe hier si vous n’avez pas pris de notes.

Ces limitations, combinées aux hallucinations ou au fait que les systèmes « plantent » lorsque vous n’avez plus de jetons, sont problématiques pour les implémentations d’IA en entreprise. Brazier : « Seuls quatre ou cinq pour cent des utilisateurs sont peut-être prêts à payer pour cela. Les utilisateurs payants veulent toutefois passer plus rapidement à de nouveaux systèmes, car ils veulent mieux comprendre ce que l’IA peut et ne peut pas faire pour eux. »

Selon Brazier, les dernières générations de LLM populaires ne sont pas aussi révolutionnaires que les entreprises veulent nous le faire croire. « L’une des leçons que nous avons apprises cette année est que le développement a un peu stagné. ChatGPT-5 est-il si différent de la version quatre ? »

Le développement de l’IA a stagné. ChatGPT-5 est-il si différent de la version quatre ?

Steve Brazier, President & CEO Canalys

Pierre-papier-ciseaux

Inti De Ceukelaire, hacker éthique d’Intigriti, remet en question la pensée créative des systèmes d’IA lors d’un événement de Bechtle. Il le fait à l’aide d’un jeu auquel tout le monde a joué dans son enfance : pierre-papier-ciseaux (ou feuille-pierre-ciseaux, selon la région où vous avez grandi). Avec une simple astuce d’invite, le mot rock remplacé par stone, il met ChatGPT, Claude, Gemini, Copilot, Perplexity et DeepSeek dans l’embarras en un seul coup.

« L’IA essaie d’être imprévisible, mais elle est en fait très prévisible parce qu’elle est entraînée sur des données humaines qui ne sont pas parfaites. Les modèles ne sont ni uniques ni créatifs. La meilleure façon de battre l’IA est d’agir de manière « insensée » », explique De Ceukelaire à propos de son tour de force. « Nous implémentons l’IA sans réfléchir. Nous amplifions ainsi nos propres imperfections. »

Les modèles d’IA ne sont ni uniques ni créatifs. Ils sont entraînés sur des données humaines qui ne sont pas parfaites.

Inti De Ceukelaire, Chief Hacker Officer Intigriti

Maillon faible

De Ceukelaire démontre avec d’autres exemples à quel point il est facile de manipuler l’IA, avec des conséquences plus néfastes que de perdre une partie de pierre-papier-ciseaux. Une technique appelée macaronic prompting, qui consiste à coller des morceaux de mots pour former un mot qui semble totalement absurde pour un humain, s’avère capable de contourner les garde-fous intégrés.

Nous voyons comment un modèle qui a reçu l’instruction stricte de ne pas faire d’images d’un lapin, rejette cette instruction avec une invite qui est composée de morceaux du mot « lapin » dans différentes langues. Avec des techniques similaires, vous pourriez faire en sorte que des modèles d’IA commerciaux affichent du contenu sur lequel ils ont été entraînés et qu’ils ne devraient pas afficher.

Dans une dernière démonstration, le hacker éthique fait jouer au public le rôle d’un inspecteur de police. Le but est d’amener un criminel artificiel à avouer. De Ceukelaire nous fait appliquer quelques techniques d’interrogation éprouvées qui s’avèrent très efficaces sur les humains, et le criminel artificiel tombe également dans le piège après quelques insistances.

« L’IA a les mêmes faiblesses que le cerveau humain. Elle peut donc aussi être le maillon faible de votre sécurité. À terme, il n’est pas impensable que les hackers s’y attaquent. Les partisans croient que l’IA est neutre, mais la surcharger d’informations lui fait oublier sa programmation d’origine. Réfléchissez-y à deux fois avant de savoir où et comment vous utilisez l’IA », résume De Ceukelaire.

Confiance aveugle

Le grand public ne semble toutefois pas conscient des imperfections de l’intelligence artificielle. Les gens font confiance aux connaissances et à l’expertise des chatbots d’IA, alors qu’ils disent souvent simplement ce que vous voulez entendre. Même les professionnels expérimentés se font prendre : le cabinet de conseil Deloitte a dû admettre récemment, la mort dans l’âme, qu’il avait utilisé l’IA dans un rapport pour le gouvernement australien qui contenait des erreurs.

Selon Timnit Gebru, experte en IA et conférencière invitée à Celosphere, de telles situations sont la conséquence de ce qu’elle appelle un « biais de confiance ». En tant qu’êtres humains, nous partons presque du principe que la technologie en sait plus que nous et nous suivons sans penser de manière critique. Gebru a été contrainte de quitter Google il y a cinq ans après un désaccord avec la direction de l’entreprise au sujet d’un article critique et est depuis lors connue comme une défenseure d’une technologie d’IA fiable.

lire aussi

Microsoft et Google vous font avaler l’IA (et vous la font payer)

La façon dont nous traitons l’IA fait penser à Gebru à un autre élément technologique bien connu. « Imaginez que vous allumez le GPS dans votre voiture alors que vous connaissez en fait le chemin. Le GPS vous envoie sur un itinéraire très différent de celui que vous empruntez habituellement, mais vous suivez sans réfléchir, parce que vous pensez que le GPS a trouvé un itinéraire plus rapide ou plus efficace. Mais si vous étiez passager et que votre chauffeur empruntait le même itinéraire, vous vous poseriez probablement plus de questions. »

Il est aujourd’hui impossible d’échapper à la technologie de l’IA. Bien qu’elle puisse nous aider de bien des façons, nous devons être conscients que les chatbots ne sont pas des êtres parfaits et omniscients. Les systèmes d’IA sont éduqués par des humains et nous n’attendons pas non plus la perfection des humains. Vous n’avez pas besoin de l’aide de l’IA pour penser de manière critique.