L’IA agentique autonome peut apporter de nouvelles gains d’efficacité, mais les problèmes de sécurité et de cohérence des résultats ne sont pas encore résolus.
Deux versions d’IA au début de cette année incitent les utilisateurs à abandonner le contrôle et à laisser des outils agentiques autonomes effectuer des tâches en leur nom. Les responsables informatiques doivent être prêts à faire face aux conséquences.
Anthropic a déployé sa plateforme agent Claude Cowork en janvier pour macOS et en février pour Windows, et l’utilisation de l’outil agent OpenClaw a grimpé en flèche au début de cette année après que le développeur Peter Steinberger, désormais chez OpenAI, a lancé le projet open source fin 2025.
Alors que la plupart des organisations se concentrent sur le déploiement d’une IA qui augmente le travail humain, il y a eu un énorme regain d’intérêt pour l’IA agentique autonome depuis la fin de l’année dernière, déclare Neal Riley, responsable de l’innovation et ancien CIO de la société mère de conseil informatique et de transformation numérique The Adaptavist Group.
De nombreuses organisations, même celles traditionnellement réticentes au risque dans les secteurs des services financiers et de la santé, ont commencé à expérimenter l’IA autonome alors qu’elles cherchent à remodeler leurs flux de travail, explique-t-il.
Même s’ils s’inquiètent des résultats imprévus et des agents autonomes fonctionnant comme une IA fantôme, les premiers utilisateurs de l’IA agentique voient un énorme potentiel dans la technologie en tant que multiplicateur de force qui, par exemple, permet à des personnes non techniques de résoudre des problèmes informatiques mineurs sans impliquer l’équipe technique.
« À l’horizon 2026, nous commençons à voir des gens investir massivement dans bon nombre de ces processus qui sont plus agents et permettent à ce type de contrôle de s’effectuer de manière très stricte et réglementée, tout en permettant à ces systèmes d’atteindre ce niveau d’autonomie », explique Riley. «Nous constatons une énorme augmentation de ce phénomène.»
Des robots autonomes pour tous
OpenClaw et Claude Cowork sont à l’avant-garde de cette révolution à venir, permettant aux utilisateurs de faire appel à l’IA pour automatiser les flux de travail sur leurs ordinateurs. Les robots OpenClaw s’intègrent aux IA externes de modèle de langage large (LLM), telles que les modèles GPT de Claude et OpenAI, et les utilisateurs y accèdent via un chatbot fonctionnant sur un service de messagerie tel que WhatsApp, Telegram ou Discord.
Les utilisateurs donnent à Claude Cowork accès à leurs applications et fichiers, puis invitent l’IA à effectuer des tâches. Cowork peut organiser des fichiers, créer des feuilles de calcul, préparer des rapports et analyser des notes en accédant aux fichiers sur l’ordinateur de l’utilisateur, en les extrayant en contexte à partir d’applications telles que Slack et en parcourant le Web pour plus d’informations. Avant que Claude n’agisse, il montre le plan à l’utilisateur et attend son approbation, selon Anthropic.
Néanmoins, certains utilisateurs ont donné à ces agents autonomes un niveau de contrôle élevé, et il existe des risques lorsqu’ils exécutent leurs ordinateurs sans limites strictes.
Summer Yue, chercheuse en sécurité chez Meta AI, a tweeté fin février qu’OpenClaw avait tenté de supprimer sa boîte de réception après avoir demandé à l’IA de la nettoyer. « Rien ne vous humilie comme dire à votre OpenClaw ‘confirmez avant d’agir’ et le regarder speedrun supprimer votre boîte de réception », a-t-elle écrit.
Elle a reconnu une erreur de recrue. « Il s’avère que les chercheurs en alignement ne sont pas à l’abri d’un mauvais alignement », a-t-elle écrit. « Je suis devenu trop confiant parce que ce flux de travail fonctionnait sur ma boîte de réception de jouets depuis des semaines. Les vraies boîtes de réception sont différentes. »
L’une des principales réponses au tweet de Yue était une photo de quelqu’un tendant un fusil d’assaut à un chimpanzé.
Les chercheurs ont également découvert plusieurs failles de sécurité dans OpenClaw, notamment une vulnérabilité aux attaques par injection rapide.
Gros risque, grande récompense
C’est là que réside le problème : les experts en IA voient d’énormes avantages potentiels avec l’IA autonome – avec la possibilité de créer d’énormes efficacités sur le lieu de travail – mais les risques sont substantiels.
Riley reconnaît à la fois les problèmes de sécurité et la possibilité pour l’IA agentique de prendre des mesures que les utilisateurs n’avaient pas anticipées. Même si les utilisateurs n’ont pas encore vu d’IA autonome capable d’accomplir leur travail plus rapidement ou à moindre coût que les humains (les jetons sont chers), la technologie a le potentiel de repenser la nature du travail pour le mieux, dit-il.
« Lorsque vous parlez des avantages, cela remplace certainement le travail effectué aujourd’hui, mais il s’agit presque d’un sous-produit », dit-il. « Ce que cela vous permet en réalité de faire, c’est de vous coordonner d’une manière différente qu’auparavant en transmettant des informations dans les deux sens au sein de l’équipe afin de diffuser ces informations plus rapidement et avec une meilleure qualité. »
Les IA autonomes permettront aux organisations de redéployer leur main-d’œuvre humaine vers de nouvelles tâches, supprimant ainsi une grande partie du travail pénible, affirment les défenseurs.
« Une fois que vous pouvez commencer à faire confiance à un grand nombre de ces systèmes agentiques pour assumer la responsabilité des choses, souvent, ils ne le font pas plus vite ni même mieux que ce que fait l’humain », explique Riley. « Ce que cela fait, c’est qu’il ne nécessite pas l’implication de l’humain, ce qui signifie qu’il peut travailler sur d’autres choses. »
De nombreuses entreprises en sont encore aux premiers stades du parcours de l’IA autonome, déclare Upal Saha, directeur technique du fournisseur d’intégration de données IA bem. L’un des grands défis consiste à amener les IA à comprendre le fonctionnement de l’entreprise, dit-il.
« Dans la plupart des entreprises, les relations entre les processus, les données et les décisions ne sont pas clairement documentées », ajoute-t-il. « Cette connaissance est partagée par les équipes et les individus. Les agents peuvent être incroyablement compétents, mais sans ce contexte opérationnel, ils sont souvent en train de deviner plutôt que d’exécuter. »
La vitesse est un énorme avantage potentiel des agents autonomes, mais c’est aussi l’un des inconvénients, note Saha.
« S’ils disposent du bon contexte, ils peuvent compresser des heures de travail opérationnel manuel en quelques secondes », ajoute-t-il. « L’inconvénient est que la même vitesse peut amplifier les erreurs. Si un agent comprend mal un flux de travail ou une structure de données, il peut répéter cette erreur à grande échelle. »
Malgré les risques, le marché évolue rapidement vers l’IA agentique, avec des adoptions à grande échelle au cours des deux prochaines années, déclare Russell Twilligear, responsable de la R&D en IA chez le fournisseur de contenu généré par l’IA BlogBuster.
« Nous assistons à une évolution des systèmes qui génèrent uniquement du texte vers des systèmes capables d’exécuter réellement un travail en plusieurs étapes », dit-il. « Le plus grand avantage est que les agents autonomes ne se contentent pas de répondre à une simple invite. Ils peuvent passer de l’intention à l’exécution en collectant des informations, en mettant à jour les systèmes, etc. »
Cependant, il existe un danger si les agents autonomes ne sont pas correctement implémentés, ajoute Twilligear.
« Le plus gros inconvénient est que cela va évoluer plus vite que nous ne pouvons le contrôler », dit-il. « Cela signifie des risques de sécurité et des ratés à chaque nouvelle intégration. »
La sécurité et la surveillance sont les problèmes majeurs à surmonter, ajoute-t-il. « Lorsqu’un agent peut accéder aux e-mails, aux fichiers, aux navigateurs, etc., vous vous exposez à un monde de souffrance », déclare Twilligear. « Le problème est la rapidité avec laquelle tout cela se produit. Des rapports de sécurité récents montrent que de nombreuses entreprises ne surveillent même pas leurs agents IA. Pour moi, c’est tout simplement fou. »
Autoriser l’expérimentation
Les responsables informatiques qui déploient des agents autonomes doivent mettre en place des contrôles robustes, s’assurer que leurs données sont propres et accessibles et que les autorisations de leurs applications sont correctement configurées, explique Riley du groupe Adaptavist.
Malgré les problèmes de sécurité et de rendement, Riley encourage les responsables informatiques à permettre aux employés d’expérimenter la technologie émergente en raison de son adoption imminente. Les organisations qui investissent dans la formation en IA et permettent à leurs employés de jouer avec la technologie ont tendance à obtenir de meilleurs résultats lors des déploiements, note-t-il.
« Avec tous ces outils disponibles, les gens devraient essayer dès maintenant de simplement comprendre comment ils fonctionnent », dit-il. « Ces choses arrivent si vite que l’intégration et le type d’habilitation que vous auriez obtenu dans les logiciels informatiques il y a 10 ans n’existent tout simplement pas. L’approche de chacun à ce sujet est la suivante: allez simplement jouer avec, et vous comprendrez comment cela fonctionne. «
Voir aussi :
- Ce que les RSSI doivent savoir sur le cauchemar de la sécurité OpenClaw
- Votre agent OpenClaw personnel peut également recevoir des commandes de sites Web malveillants
- IA agentique : un cauchemar de sécurité en devenir pour un RSSI ?
- Vous pensez que l’IA agentique est difficile à sécuriser aujourd’hui ? Attends juste quelques mois
- L’IA agentique dans la sécurité informatique : lorsque les attentes répondent à la réalité



