AI Protection vous aide à gérer la stratégie de sécurité de vos charges de travail d'IA en détectant les menaces et en vous aidant à atténuer les risques liés à votre inventaire d'assets d'IA. Ce document fournit une présentation générale d'AI Protection, y compris ses avantages et plusieurs concepts clés.
Présentation de la protection de l'IA
La protection de l'IA offre plusieurs fonctionnalités pour vous aider à gérer les menaces et les risques liés à vos systèmes d'IA, y compris les suivantes :
- Évaluez votre inventaire d'IA : évaluez et comprenez vos systèmes et ressources d'IA, y compris vos modèles et ensembles de données.
- Gérez les risques et la conformité : gérez de manière proactive les risques liés à vos ressources d'IA et vérifiez que vos déploiements d'IA respectent les normes de sécurité pertinentes.
- Limitez les risques juridiques et financiers : réduisez les risques financiers, de réputation et juridiques associés aux failles de sécurité et au non-respect des réglementations.
- Détecter et gérer les menaces : détectez les menaces potentielles pour vos systèmes et ressources d'IA et répondez-y rapidement.
- Afficher un tableau de bord : gérez tous vos risques et menaces liés à l'IA à partir d'un tableau de bord centralisé.
Cas d'utilisation
AI Protection aide les organisations à renforcer leur sécurité en identifiant et en atténuant les menaces et les risques liés aux systèmes d'IA et aux données sensibles. Les cas d'utilisation suivants sont des exemples de la façon dont la protection par IA peut être utilisée dans différentes organisations :
Établissement de services financiers : données financières des clients
Une grande institution de services financiers utilise des modèles d'IA qui traitent des données financières sensibles.
- Problème : le traitement de données financières très sensibles avec des modèles d'IA comporte plusieurs risques, y compris celui de fuites de données, d'exfiltration de données lors de l'entraînement ou de l'inférence, et de failles dans l'infrastructure d'IA sous-jacente.
- Cas d'utilisation : la protection par IA surveille en permanence les workflows d'IA pour détecter les activités suspectes, s'efforce de détecter les accès non autorisés aux données et les comportements anormaux des modèles, classifie les données sensibles et contribue à améliorer votre conformité avec les réglementations telles que PCI DSS et le RGPD.
Fournisseur de soins de santé : confidentialité et conformité des patients
Un grand prestataire de santé gère des dossiers médicaux électroniques et utilise l'IA pour les diagnostics et la planification des traitements, en traitant des informations de santé protégées.
- Défi : Les informations de santé protégées analysées par les modèles d'IA sont soumises à des réglementations strictes telles que la loi HIPAA. Les risques incluent l'exposition accidentelle d'informations de santé protégées en raison d'une mauvaise configuration ou d'attaques malveillantes ciblant les systèmes d'IA pour obtenir des données sur les patients.
- Cas d'utilisation : la protection par IA identifie les potentielles violations de la loi HIPAA et vous en avertit, détecte les accès non autorisés aux informations de santé protégées par des modèles ou des utilisateurs, signale les services d'IA vulnérables et potentiellement mal configurés, et surveille les fuites de données.
Entreprise de fabrication et de robotique : propriété intellectuelle exclusive
Une entreprise manufacturière spécialisée dans la robotique avancée et l'automatisation s'appuie fortement sur l'IA pour optimiser les chaînes de production et le contrôle robotique, avec une propriété intellectuelle (PI) vitale intégrée à ses algorithmes d'IA et à ses données de fabrication.
- Problème : les algorithmes d'IA propriétaires et les données opérationnelles sensibles sont vulnérables au vol par des personnes internes malveillantes ou des adversaires externes, ce qui peut entraîner un désavantage concurrentiel ou une perturbation opérationnelle.
- Cas d'utilisation : AI Protection surveille les accès non autorisés aux modèles d'IA et aux dépôts de code, détecte les tentatives d'exfiltration de modèles entraînés et les schémas d'accès aux données inhabituels, et signale les failles dans les environnements de développement d'IA pour empêcher le vol de propriété intellectuelle.
Règles d'Event Threat Detection
Les règles Event Threat Detection suivantes exécutent des détections sur les composants Vertex AI :
- Persistance : Nouvelle méthode d'API d'IA
- Persistance : nouvelle zone géographique pour le service d'IA
- Élévation de privilèges : emprunt d'identité anormal d'un compte de service pour une activité d'administration d'IA
- Escalade de privilèges : emprunt d'identité anormal d'un compte de service pour l'accès à des données d'IA
- Élévation des privilèges : délégation de compte de service multi-étapes anormale pour une activité d'administration d'IA
- Élévation des privilèges : délégation de compte de service multi-étapes anormale pour l'accès à des données d'IA
- Élévation de privilèges : emprunt d'identité anormal d'un compte de service pour une activité d'administration d'IA
- Accès initial : activité de compte de service inactif dans le service d'IA
Pour en savoir plus sur Event Threat Detection, consultez la présentation d'Event Threat Detection.
Framework de protection de l'IA
AI Protection est un framework qui inclut des contrôles cloud spécifiques déployés automatiquement en mode Détection. Le mode Détection signifie que le contrôle du cloud est appliqué aux ressources définies à des fins de surveillance. Toute infraction est détectée et des alertes sont générées. Vous utilisez des frameworks et des contrôles cloud pour définir vos exigences en matière de protection de l'IA et les appliquer à votre environnement Google Cloud . La protection de l'IA inclut le cadre par défaut, qui définit les contrôles de base recommandés pour la protection de l'IA. Lorsque vous activez AI Protection, le framework par défaut est automatiquement appliqué à l'organisation Google Cloud en mode détection.
Si nécessaire, vous pouvez créer des copies du framework pour créer des frameworks AI Protection personnalisés. Vous pouvez ajouter les contrôles cloud à vos frameworks personnalisés et les appliquer à l'organisation, aux dossiers ou aux projets. Par exemple, vous pouvez créer des frameworks personnalisés qui appliquent des contrôles juridictionnels spécifiques à des dossiers spécifiques pour vous assurer que les données de ces dossiers restent dans une région géographique particulière.
Contrôles cloud dans le framework de protection par IA par défaut
Les contrôles cloud suivants font partie du framework AI Protection par défaut.
Nom du contrôle cloud | Description |
---|---|
Bloquer le réseau VPC par défaut pour les instances Vertex AI Workbench |
Ne créez pas d'instances Workbench dans le réseau VPC par défaut pour éviter d'utiliser ses règles de pare-feu par défaut trop permissives. |
Bloquer le téléchargement de fichiers dans la console JupyterLab |
N'autorisez pas le téléchargement de fichiers depuis la console JupyterLab dans les instances Workbench pour réduire les risques d'exfiltration de données et empêcher la distribution de logiciels malveillants. |
Bloquer l'accès à Internet pour les modèles d'exécution Vertex AI |
N'autorisez pas l'accès à Internet dans les modèles d'exécution Colab Enterprise pour réduire la surface d'attaque externe et éviter l'exfiltration de données. |
Bloquer l'adresse IP publique pour les instances Vertex AI Workbench |
N'autorisez pas les adresses IP externes pour les instances Workbench afin de réduire l'exposition à Internet et de minimiser le risque d'accès non autorisé. |
Bloquer l'accès root sur les instances Vertex AI Workbench |
N'autorisez pas l'accès root sur les instances Workbench pour éviter toute modification non autorisée des fichiers système critiques ou l'installation de logiciels malveillants. |
Activer les mises à niveau automatiques pour les instances Vertex AI Workbench |
Activez les mises à niveau automatiques pour les instances Workbench afin de bénéficier des dernières fonctionnalités, des mises à jour du framework et des correctifs de sécurité. |
Activer CMEK pour les jobs personnalisés Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les jobs d'entraînement personnalisés Vertex AI afin de mieux contrôler le chiffrement des entrées et sorties des jobs. |
Activer CMEK pour les ensembles de données Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les ensembles de données Vertex AI afin de mieux contrôler le chiffrement des données et la gestion des clés. |
Activer CMEK pour les points de terminaison Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les points de terminaison Vertex AI afin de mieux contrôler le chiffrement des modèles déployés et l'accès aux données de contrôle. |
Activer CMEK pour Vertex AI Feature Store |
Exigez des clés de chiffrement gérées par le client (CMEK) pour Vertex AI Featurestore afin de mieux contrôler le chiffrement des données et l'accès à celles-ci. |
Activer CMEK pour les tâches de réglage des hyperparamètres Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les jobs de réglage d'hyperparamètres afin de mieux contrôler le chiffrement des données d'entraînement du modèle et la configuration des jobs. |
Activer CMEK pour les magasins de métadonnées Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les magasins de métadonnées Vertex AI afin de mieux contrôler le chiffrement des métadonnées et l'accès. |
Activer CMEK pour les modèles Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les modèles Vertex AI afin de mieux contrôler le chiffrement des données et la gestion des clés. |
Activer CMEK pour les modèles d'environnement d'exécution Vertex AI Notebooks |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les modèles d'exécution Colab Enterprise afin de sécuriser les environnements d'exécution et les données associées. |
Activer CMEK pour Vertex AI TensorBoard |
Exigez des clés de chiffrement gérées par le client (CMEK) pour Vertex AI TensorBoard afin de mieux contrôler le chiffrement des données d'expériences et des visualisations de modèles. |
Activer CMEK pour les pipelines d'entraînement Vertex AI |
Exigez des clés de chiffrement gérées par le client (CMEK) sur les pipelines d'entraînement Vertex AI pour mieux contrôler le chiffrement des données d'entraînement et des artefacts obtenus. |
Activer CMEK pour les instances Vertex AI Workbench |
Exigez des clés de chiffrement gérées par le client (CMEK) pour les instances Vertex AI Workbench afin de mieux contrôler le chiffrement des données. |
Activer la fonctionnalité "Supprimer et placer dans la corbeille" pour les instances Vertex AI Workbench |
Activez la fonctionnalité de métadonnées "Supprimer et placer dans la corbeille" pour les instances Workbench afin de fournir un filet de sécurité de récupération essentiel et d'éviter toute perte de données accidentelle. |
Activer l'arrêt inactif pour les modèles d'exécution Vertex AI |
Activez l'arrêt automatique en cas d'inactivité dans les modèles d'exécution Colab Enterprise pour optimiser les coûts cloud, améliorer la gestion des ressources et renforcer la sécurité. |
Activer la surveillance de l'intégrité pour les instances Vertex AI Workbench |
Activez la surveillance de l'intégrité sur les instances Workbench pour attester en continu de l'intégrité du démarrage de vos VM par rapport à une référence fiable. |
Activer le démarrage sécurisé pour les modèles d'exécution Vertex AI |
Activez le démarrage sécurisé dans les modèles d'exécution Colab Enterprise pour empêcher l'exécution de code non autorisé et protéger l'intégrité du système d'exploitation. |
Activer le démarrage sécurisé pour les instances Vertex AI Workbench |
Activez le démarrage sécurisé pour les instances Workbench afin d'empêcher l'exécution de logiciels non autorisés ou malveillants pendant le processus de démarrage. |
Activer le module vTPM sur les instances Vertex AI Workbench |
Activez le module vTPM (Virtual Trusted Platform Module) sur les instances Workbench pour protéger le processus de démarrage et mieux contrôler le chiffrement. |
Restreindre l'utilisation du compte de service par défaut pour les instances Vertex AI Workbench |
Limitez l'utilisation du compte de service par défaut très permissif pour les instances Workbench afin de réduire le risque d'accès non autorisé aux services Google Cloud. |
Domaines fonctionnels compatibles
Cette section définit les domaines fonctionnels que la protection par IA peut aider à sécuriser.
- Charges de travail d'IA : les charges de travail des applications d'IA vont des outils internes visant à améliorer la productivité des employés aux solutions destinées aux consommateurs, conçues pour améliorer l'expérience utilisateur et stimuler l'activité. Il s'agit par exemple des agents d'IA, des assistants virtuels, des chatbots d'IA conversationnelle et des recommandations personnalisées.
- Modèles d'IA : les modèles d'IA sont classés en modèles d'IA de base, modèles d'IA affinés, modèles d'IA first party standards et modèles d'IA personnalisés. Par exemple, Gemini, Llama, les modèles de traduction et les modèles personnalisés pour des tâches spécifiques.
- Composants d'IA : les composants d'IA contribuent aux pipelines d'opérations de machine learning et sont utilisés par les charges de travail d'IA. Voici quelques exemples de composants d'IA :
- Composants d'IA déclaratifs : les outils de gestion du cycle de vie de l'IA, tels que Vertex AI, suivent ces composants.
- Composants d'IA inférés : composants à usage général, tels que les composants de calcul et de stockage, utilisés pour traiter les données ou les charges de travail d'IA.
- Modèle en tant que service (API uniquement) : composants comportant des appels programmatiques vers des modèles d'IA first party ou tiers.
Utiliser le tableau de bord Sécurité de l'IA
Le tableau de bord "Sécurité de l'IA" offre une vue complète de l'inventaire des composants d'IA de votre organisation et propose des mesures d'atténuation potentielles pour améliorer la gestion des risques et des menaces.
Accéder au tableau de bord
Pour accéder au tableau de bord "Sécurité de l'IA", accédez à Aperçu des risques > Sécurité de l'IA dans la console Google Cloud .
Pour en savoir plus, consultez Tableau de bord de sécurité de l'IA.
Comprendre les informations sur les risques
Cette section fournit des informations sur les risques potentiels associés aux systèmes d'IA. Vous pouvez consulter les principaux risques dans votre inventaire d'IA.
Vous pouvez cliquer sur n'importe quel problème pour ouvrir un volet d'informations qui fournit une visualisation du problème.
Afficher les menaces liées à l'IA
Cette section fournit des informations sur les menaces associées aux systèmes d'IA. Vous pouvez consulter les cinq menaces récentes les plus importantes associées à vos ressources d'IA.
Sur cette page, vous pouvez effectuer les opérations suivantes :
- Cliquez sur Afficher tout pour afficher les menaces associées à vos ressources d'IA.
- Cliquez sur une menace pour en afficher les détails.
Visualiser l'inventaire
Vous pouvez afficher une visualisation de votre inventaire d'IA sur le tableau de bord. Il fournit un récapitulatif des projets impliquant l'IA générative, des modèles first party et tiers en cours d'utilisation, ainsi que des ensembles de données utilisés pour entraîner les modèles tiers.
Sur cette page, vous pouvez effectuer les opérations suivantes :
- Pour afficher la page d'informations sur l'inventaire, cliquez sur l'un des nœuds de la visualisation.
- Pour afficher la liste détaillée des composants individuels (tels que les modèles de base et les modèles personnalisés), cliquez sur l'info-bulle.
- Pour ouvrir une vue détaillée du modèle, cliquez dessus. Cette vue affiche des détails tels que les points de terminaison où le modèle est hébergé et l'ensemble de données utilisé pour entraîner le modèle. Si la protection des données sensibles est activée, la vue "Ensembles de données" s'affiche également si l'ensemble de données contient des données sensibles.
Récapitulatif des résultats de l'examen
Cette section vous aide à évaluer et à gérer les résultats générés par les règles de sécurité des données et du framework d'IA. Cette section comprend les éléments suivants :
- Résultats : cette section affiche un récapitulatif des résultats générés par les règles de sécurité de l'IA et des données. Cliquez sur Afficher tous les résultats ou sur le nombre à côté de chaque catégorie de résultats pour afficher la page d'informations détaillées sur les résultats. Cliquez sur un résultat pour afficher des informations supplémentaires à son sujet.
- Données sensibles dans les ensembles de données Vertex AI : cette section affiche un récapitulatif des résultats basés sur les données sensibles dans les ensembles de données, tels qu'ils sont signalés par Sensitive Data Protection.
Examiner les résultats Model Armor
Un graphique indique le nombre total de requêtes ou de réponses analysées par Model Armor, ainsi que le nombre de problèmes détectés par Model Armor. Il affiche également des statistiques récapitulatives pour différents types de problèmes détectés, tels que l'injection de requêtes, la détection de jailbreak et la détection de données sensibles.
Ces informations sont renseignées en fonction des métriques que Model Armor publie dans Cloud Monitoring.
Étapes suivantes
- Découvrez comment configurer la protection par IA.
- Pour évaluer les risques, accédez aux données du tableau de bord.