À mesure que les déploiements d'IA agentique prennent de l'ampleur - un phénomène dans lequel des agents logiciels autonomes exécutent des tâches en plusieurs étapes avec une supervision humaine minimale - les risques de sécurité décrits dans notre dernier article deviennent des menaces immédiates. La vitesse et l'échelle des agents nécessitent une approche révolutionnaire de la sécurité, passant d'une défense réactive à une résilience proactive et intégrée.
Vous trouverez ci-dessous des recommandations applicables aux politiques, à l'infrastructure, à la gestion des vulnérabilités et aux opérations SOC pour sécuriser l'utilisation de l'IA agentique.
Principes de sécurité fondamentaux pour l'IA agentique
Le défi fondamental posé par l'IA agentique est son autonomie et sa vélocité. Contrairement aux logiciels traditionnels, ces agents prennent des décisions en temps réel et accèdent à des données sensibles. Les contrôles de sécurité conçus pour des opérations plus lentes centrées sur l'homme sont inadéquats. Les principes de sécurité fondamentaux doivent se concentrer sur la visibilité, la vitesse et la gestion des identités pour garder le contrôle sur cette nouvelle main-d'œuvre.
- Mettre en œuvre la sécurité à la vitesse des agents : les contrôles de sécurité doivent être déployés et appliqués avec la même agilité et la même rapidité que les agents afin d'éviter les failles de sécurité.
 
- Gagner en visibilité et en contrôle : Établir une visibilité totale sur tous les systèmes d'IA, y compris l'IA générative (GenAI) et l'IA agentique. Appliquer les contrôles de sécurité correspondants dès leur découverte.
 
- Aligner l'exposition au risque sur la tolérance : Veillez à ce que l'exposition au risque des agents d'IA corresponde à la tolérance au risque de votre organisation, en particulier en ce qui concerne les actifs critiques de l'entreprise auxquels les agents peuvent avoir accès.
 
- Éliminer les dettes de sécurité liées à l'IA non gérée : trouver activement les implémentations d'IA non documentées ou non gérées, y compris l'IA fantôme, qui contournent souvent les contrôles standard, et y remédier.
 
- Utiliser l'identité non humaine (NHI) et le moindre privilège : Traiter les agents d'IA comme des identités non humaines (NHI). Utiliser l'accès à moindre privilège combiné à la microsegmentation pour limiter considérablement l'étendue de l'accès aux données et des mouvements latéraux des agents.
 
Recommandations en matière de politique et de gouvernance
Les politiques informatiques traditionnelles sont insuffisantes pour les systèmes agentiques capables d'agir par eux-mêmes. Les agents fonctionnent souvent en dehors des flux de travail établis. De nouvelles règles doivent définir les comportements acceptables, la responsabilité et les limites de leur pouvoir. La gouvernance doit traiter les agents comme une entité à haut risque, en fixant des limites claires à leur fonctionnement indépendant.
- Mettre à jour les politiques pour inclure l'IA agentique : veiller à ce que toutes les politiques organisationnelles pertinentes (et pas seulement celles relatives à GenAI/ChatGPT) soient mises à jour pour tenir compte des caractéristiques et des risques uniques de l'IA agentique.
 
- Tirer parti d'équipes interfonctionnelles : Constituez des équipes comprenant des représentants des services informatiques, juridiques, des risques, des unités opérationnelles et de la sécurité pour élaborer des politiques globales, car les déploiements de l'IA dépasseront par nature les frontières des départements. Ces équipes devraient se concentrer sur les points suivants
- Les politiques d'utilisation acceptable et la formation de sensibilisation.
 
- Procédures de vérification pour tous les agents autonomes et d'IA.
 
- Des politiques d'accès aux données spécifiques pour les agents.
 
 
- Traiter les agents comme des employés humains à risque : Appliquer aux agents d'IA les paradigmes les plus stricts en matière de sécurité des employés humains :
- Une architecture de confiance zéro est essentielle.
 
- Appliquer des politiques de session PAM/IdP strictes.
 
- Imposer l'accès au moindre privilège à tout moment.
 
 
- Normaliser la réponse aux incidents en cas de mauvais comportement de l'agent : Traiter tout cas de mauvais comportement d'un agent - y compris les hallucinations en cascade ou les actions non autorisées - comme un incident de sécurité formel, en activant toutes les étapes standard de la réponse aux incidents (IR).
 
- Adapter les évaluations des risques : Mettez à jour les évaluations des risques et les exercices sur table afin d'y inclure des scénarios spécialisés sur l'IA et l'IA ingénieuse. Les vecteurs de menace évoluent rapidement.
 
Recommandations pour la gestion de l'infrastructure
L'IA agentique nécessite de nouveaux points d'application de la sécurité au-delà des périmètres de réseau standard. Les agents communiquent à l'aide de nouveaux protocoles (comme le MCP), interagissent par l'intermédiaire de divers proxys et accèdent à des ressources par l'intermédiaire d'API. Pour s'assurer que chaque transaction est validée, gérée et confinée, placez des contrôles d'infrastructure à tous les points où les agents interagissent avec des données, des modèles ou d'autres systèmes.
- Configurer toutes les fonctions d'IA en tenant compte de la sécurité : mettre en œuvre des mesures de sécurité sur toutes les fonctions d'IA, y compris :
- les proxys d'IA (par exemple, les passerelles RAG/MCP/A2A)
 
- Détection du protocole MCP sur les dispositifs périphériques.
 
- Validation des invites et des sorties
 
- Journalisation à l'aide d'outils tels que les pare-feu d'application Web (WAF) ou les passerelles Web sécurisées (SWG).
 
 
- Accélérer l'adoption de la confiance zéro basée sur l'identité :
- La gestion des appareils mobiles (MDM) est essentielle pour protéger les points d'extrémité.
 
- Protégez les API/MCP en n'autorisant que les appareils gérés et approuvés à y accéder.
 
 
- Utiliser SASE pour l'application des politiques : Utiliser une architecture Secure Access Service Edge (SASE), comprenant la prévention de la perte de données (DLP) et le SWG, pour appliquer une politique granulaire à l'ensemble du trafic des agents et des utilisateurs.
 
- Mettre en place un comité de gouvernance des agents (AGB) : Créer un AGB en plus du traditionnel Change Advisory Board (CAB). Les CAB sont généralement trop lents pour le rythme rapide de l'IA agentique.
- L'AGB devrait traiter l'orchestration et les agents de la même manière que les logiciels.
 
- L'objectif est de pré-approuver autant de flux de travail agentiques que possible. Bloquer les autres jusqu'à ce qu'une demande formelle et un examen soient terminés.
 
 
Recommandations pour la gestion des vulnérabilités
L'IA agentique amplifie le défi du Shadow IT car la barre de déploiement est abaissée. Les employés peuvent facilement déployer des agents puissants localement sur des postes de travail ou dans des environnements cloud, créant ainsi des points d'accès non autorisés et des modèles potentiellement non sécurisés. La gestion des vulnérabilités doit s'étendre pour rechercher en permanence les outils d'IA non autorisés et tester la sécurité des LLM autorisés contre des vecteurs d'attaque spécialisés.
- Recherche permanente d'outils d'IA non autorisés : Effectuez un balayage constant pour trouver l'IA fantôme et les serveurs et outils de protocole de contexte de modèle (MCP) malhonnêtes que vous n'avez pas autorisés.
- Utilisez des analyses basées sur l'hôte et sur le réseau, car les utilisateurs peuvent exécuter des agents locaux sur des postes de travail ou des environnements en nuage.
 
- Recherchez les ports non standard et les bibliothèques de code spécifiques, comme la présence de fastmcp, installés sur les postes de travail.
 
 
- Test continu des vulnérabilités LLM : Testez régulièrement des normes telles que le Top 10 de l'OWASP pour les grands modèles de langage (LLM) afin de vous assurer que la formation et la spécialisation des modèles internes respectent les meilleures pratiques en matière de sécurité.
 
- Pentesting et Red Teaming spécialisés dans l'IA : Consacrer des ressources au Pentesting et au Red Teaming de l'IA. Ces équipes doivent comprendre les faiblesses de l'IA pour simuler des scénarios d'attaque réalistes et évolutifs.
 
Recommandations pour le centre d'opérations de sécurité (SOC)
Le SOC est en première ligne d'une course à l'armement accélérée par l'IA, confronté à des attaques plus rapides et plus sophistiquées que jamais. De plus, la frontière entre les activités malveillantes humaines et automatisées s'estompe. Le SOC doit évoluer en automatisant sa réponse, en améliorant la traçabilité et en utilisant l'IA contre l'IA pour soutenir l'efficacité et contenir rapidement les menaces avant qu'elles ne causent des dommages.
- Améliorer la traçabilité : le comportement humain était autrefois distinct du comportement des scripts, mais les agents de l'IA brouillent cette ligne de démarcation. La traçabilité est vitale. Enregistrez les invites exactes de l'IA et les commandes détaillées pour fournir le contexte nécessaire aux enquêtes.
 
- Garantir un système d'alerte complet : Vérifier que tous les outils de sécurité enregistrent les alertes spécifiques à l'IA et aux MCP.
 
- Mettre en œuvre la détection des anomalies comportementales : Utilisez des analyses avancées pour surveiller les schémas d'accès à l'IA afin de détecter les anomalies, notamment :
- L'accès à des données sensibles en dehors d'un périmètre prédéfini.
 
- Des schémas d'appel d'API étranges.
 
- Mouvements de données inhabituels ou signes d'infiltration/exfiltration.
 
 
- Donner la priorité aux flux de travail SOAR : Étant donné que les flux de travail de l'IA évoluent rapidement et que l'impact peut rapidement devenir important, les plateformes d'orchestration, d'automatisation et de réponse en matière de sécurité (SOAR) sont essentielles. Automatisez le confinement des entités IA/Agent/MCP compromises.
 
- Faire évoluer la chasse aux menaces : Intégrer le renseignement sur les menaces pour les campagnes d'IA adverses et mettre en œuvre des chasses aux menaces basées sur des hypothèses/objectifs qui sont directement pertinentes pour les risques spécifiques de votre organisation en matière d'IA agentique.
 
La sécurisation de l'IA agentique exige un changement fondamental dans la cyberdéfense
La sécurisation de l'IA agentique n'est pas une simple mise à jour informatique ; il s'agit d'un changement fondamental dans la stratégie de cyberdéfense. En adoptant une posture de rapidité, de confiance zéro et de gouvernance globale, les organisations peuvent gérer les risques inhérents aux systèmes autonomes.
Le succès dépend de la mise à jour des politiques pour refléter l'identité des agents, du contrôle de l'infrastructure au niveau du protocole, de l'analyse sans relâche de l'IA fantôme et de l'autonomisation du SOC grâce à l'automatisation et à une traçabilité approfondie. Ce n'est que grâce à cette approche holistique et adaptative que les entreprises pourront exploiter en toute sécurité le pouvoir de transformation de l'IA agentique.