L'utilisation de l'IA générative est presque omniprésente dans les entreprises de tous types. L'IA agentique suit de près. Une enquête récente a révélé que 82 % des entreprises interrogées utilisent désormais des agents d'IA. Plus de la moitié des agents d'IA accèdent quotidiennement à des données sensibles. Et 80 % de ces entreprises déclarent avoir été confrontées à des actions involontaires de la part de leurs agents d'IA. Vingt-trois pour cent d'entre elles ont signalé que leurs agents d'IA avaient été incités à révéler des identifiants d'accès.
Alors que 96 % des 353 professionnels de l'informatique interrogés considèrent les agents d'IA comme un risque croissant pour la sécurité, il est alarmant de constater que seuls 54 % d'entre eux déclarent avoir une visibilité totale sur les données auxquelles les agents peuvent accéder et que seuls 44 % ont mis en place des politiques de gouvernance pour les contrôler.
Pourtant, la course à l'intégration de l'IA - à la fois générative et agentique - dans les processus opérationnels se poursuit. L' étude 2025 COO de l'Institute of Business Value révèle que 70 % des cadres affirment que l'IA agentique est cruciale pour l'avenir de l'organisation. Le même nombre affirme que l'IA agentique est déjà prête à être commercialisée. Cinquante-neuf pour cent des chefs d'entreprise déclarent que les gains de productivité potentiels de l'automatisation et de l'IA sont si importants qu'ils doivent accepter des risques significatifs pour rester compétitifs. Cependant, même en tenant compte des avancées technologiques, 59 % des directeurs d'exploitation affirment que l'intégration efficace de l'IA dans les processus d'entreprise existants reste un défi.
Un sondage Technology Pulse d'Ernst & Young publié en mai a révélé que 49 % des dirigeants d'entreprises technologiques considéraient la confidentialité des données et les atteintes à la sécurité comme leur plus grande préoccupation concernant le déploiement de l'IA agentique (19 points de pourcentage de plus qu'en 2024). Pourtant, 92 % prévoient d'augmenter les dépenses en IA au cours de l'année prochaine et la moitié des dirigeants d'entreprises technologiques affirment que plus de 50 % des déploiements d'IA seront autonomes dans leur entreprise au cours des 24 prochains mois.
La poussée croissante de l'IA exige que les entreprises alignent leurs stratégies d'IA sur leurs objectifs de cyber-résilience et leur tolérance au risque, tout en recherchant un avantage concurrentiel basé sur l'IA. Sans une approche déterminée de la sécurisation de l'IA, le potentiel de dommages est tout simplement trop élevé.
Compte tenu du battage médiatique et de l'enthousiasme suscités par l'IA, deux choses peuvent être vraies en même temps. L'IA offre de nouvelles opportunités et un potentiel d'innovation. L'IA entraîne également de nouveaux risques pour la cybersécurité, qui est essentielle à la résilience des entreprises et à la poursuite des innovations tant convoitées. Cette situation n'est pas nouvelle. La rapidité de mise sur le marché par rapport à la résilience a été un problème avec chaque technologie perturbatrice à ce jour... internet... commerce électronique... nuage... mobile.
Toutefois, ce battage médiatique inépuisable est source de confusion et peut conduire à se concentrer sur les mauvais risques en fonction du modèle que l'on veut sécuriser - l'IA générative ou l'IA agentique. Bien que certains risques soient inhérents aux deux approches, il existe d'importantes divergences entre elles en matière de cybersécurité.
La plupart des cadres et normes de risque communs de l'ISO, du NIST et ceux partagés par l'ISF se concentrent sur l'IA traditionnelle (GenAI).
L'IA générique est un système traditionnel et réactif. Elle se comporte comme un produit. Elle agit en réponse à une demande humaine spécifique. Elle ne prend pas de mesures indépendantes et ne poursuit pas elle-même des objectifs à plusieurs étapes.
L'IA agentique est un système proactif. Elle agit comme un utilisateur final. Elle est conçue pour définir et atteindre un objectif spécifique de haut niveau avec un minimum de supervision humaine. Elle peut décomposer une tâche complexe en petites étapes, interagir avec divers outils externes et adapter sa stratégie sur la base d'un retour d'information en temps réel.
Alors que les nouveaux outils de sécurité de l'IA apparaissent aussi rapidement que les nouvelles applications de l'IA, il n'est pas judicieux de considérer la sécurité de l'IA comme une chose isolée. Considérez plutôt la sécurité de l'IA comme une extension de votre stratégie globale de cybersécurité fondée sur les bases de la visibilité, du contexte et de l'amélioration continue avec la résilience comme objectif.
Risques spécifiques à la GenAI réactive :
Les risques les plus courants identifiés par les normes actuelles sont les suivants :
Risques spécifiques à l'IA agentique proactive :
La nature autonome des agents d'IA introduit d'autres risques, notamment :
Notre vice-président des services de sécurité et de la technologie, Erik Montcalm, se penche sur ce vecteur de menace croissant et sur les cyber-risques dans sa session intitulée " Protecting the Next Phase of AI" (Protéger la prochaine phase de l'IA), lors du congrès mondial de l'ISF en octobre, et formule des recommandations pour atténuer les risques.
L'IA n'est pas seulement un risque pour la cybersécurité. Un article du MIT Sloan, Agentic AI at Scale : Redefining Management for a Superhuman Workforce, présente des experts qui débattent de la question de savoir si la mise en œuvre de l'IA agentique exige de nouvelles approches de gestion pour traiter la question de la responsabilité. Le consensus est le suivant : les agents d'IA n'étant pas des personnes morales, les humains et les entreprises qui les déploient sont responsables des résultats créés par un agent d'IA.
La nature perturbatrice de l'IA due à la vitesse et à l'échelle, comme l'explique Shelley McKinley, responsable juridique chez GitHub, est particulièrement pertinente dans le cadre de cette discussion : "Les flux de travail actuels n'ont pas été conçus en tenant compte de la vitesse et de l'échelle de l'IA, de sorte que pour combler les lacunes, il faudra de nouveaux modèles de gouvernance, des voies de décision plus claires et des processus repensés qui permettent de tracer, d'auditer et d'intervenir dans les décisions pilotées par l'IA."
Il est essentiel de se rappeler que si vous touchez à une IA, vous touchez à une surface d'attaque. Vous ne pouvez pas attendre d'être déployé pour réfléchir à la sécurité de l'IA.