Partager via


Suggestions relatives à la sécurité IA

Cet article répertorie toutes les recommandations de sécurité ia que vous pouvez voir dans Microsoft Defender pour le cloud.

Les recommandations qui apparaissent dans votre environnement sont basées sur les ressources que vous protégez et sur votre configuration personnalisée. Vous pouvez voir les recommandations dans le portail qui s’appliquent à vos ressources.

Pour en savoir plus sur les actions que vous pouvez effectuer en réponse à ces recommandations, consultez Correction des recommandations dans Defender pour le cloud.

Recommandations Azure

L’ID Microsoft Entra doit être utilisé lors de la connexion d’Azure AI Foundry au compte de stockage par défaut

Description : Defender pour cloud a identifié l’accès basé sur les informations d’identification lors de la connexion au compte de stockage par défaut dans Azure AI Foundry. Cela pose un risque d’accès non autorisé. Pour réduire le risque d’accès non autorisé, vous devez désactiver l’autorisation basée sur des clés et utiliser plutôt l’ID Microsoft Entra.

Gravité : élevée

L’ID Microsoft Entra doit être utilisé lors de la connexion aux magasins de données sur le projet Azure AI Foundry

Description : Defender pour cloud a identifié l’accès basé sur les informations d’identification lors de la connexion au compte de stockage dans le projet Azure AI Foundry. Cela pose un risque d’accès non autorisé. Pour réduire le risque d’accès non autorisé, vous devez désactiver l’autorisation basée sur des clés et utiliser plutôt l’ID Microsoft Entra.

Gravité : élevée

Application Insights doit être utilisé sur Azure AI Foundry

Description : Defender pour cloud a identifié que Application Insights n’est pas configuré dans Azure AI Foundry. AI Foundry utilise Azure Application Insights pour stocker des informations de surveillance sur vos modèles déployés. Cela pose un risque de détection différée des menaces et d’une réponse inefficace aux incidents.

Gravité : moyenne

Les connexions réseau doivent être limitées sur Azure AI Foundry

Description : Defender pour cloud a identifié l’accès au réseau public activé pour tous les réseaux dans Azure AI Foundry. Cela pose un risque d’exposition aux menaces externes et peut entraîner des violations d’accès et de données non autorisées. En limitant l’accès réseau, vous pouvez vous assurer que seuls les réseaux autorisés peuvent accéder au service.

Gravité : moyenne

(Activer si nécessaire) Les clés gérées par le client doivent être utilisées pour chiffrer des données sur Azure AI Foundry

Description : Defender for Cloud a identifié que les clés gérées par Microsoft sont utilisées pour chiffrer les données dans Azure AI Foundry. Cela pose un risque de ne pas se conformer aux réglementations pour les organisations ayant des exigences de conformité connexes. L’utilisation de clés gérées par le client (CMK) pour chiffrer les données au repos offre un meilleur contrôle sur le cycle de vie des clés, notamment la rotation et la gestion, et est souvent nécessaire pour répondre aux normes de conformité. Cela n’est pas évalué par défaut et doit être appliqué uniquement en cas d’exigences de stratégie restrictives ou de conformité. Si cette option n’est pas activée, les données sont chiffrées à l’aide de clés gérées par Microsoft. Pour implémenter cette recommandation, mettez à jour le paramètre « Effect » dans la stratégie de sécurité pour l’étendue applicable.

Gravité : moyenne

Les ressources Azure AI Services doivent avoir l’accès par clé désactivé (désactiver l’authentification locale)

Description : L’accès à la clé (authentification locale) est recommandé d’être désactivé pour la sécurité. Azure OpenAI Studio, généralement utilisé dans le développement/test, nécessite un accès à la clé et ne fonctionnera pas si l’accès à la clé est désactivé. Une fois le paramètre désactivé, l’ID Microsoft Entra devient la seule méthode d’accès, qui permet de conserver le principe de privilège minimal et le contrôle granulaire. Plus d’informations

Cette recommandation remplace l’ancienne recommandation que les comptes Cognitive Services doivent désactiver les méthodes d’authentification locales. Il était anciennement dans la catégorie Cognitive Services et Recherche cognitive et a été mis à jour pour se conformer au format de nommage d’Azure AI Services et s’aligner sur les ressources pertinentes.

Gravité : moyenne

Les ressources Azure AI Services doivent limiter l’accès réseau

Description : En limitant l’accès réseau, vous pouvez vous assurer que seuls les réseaux autorisés peuvent accéder au service. Pour ce faire, vous pouvez configurer des règles réseau afin que seules les applications provenant de réseaux autorisés puissent accéder à la ressource de service Azure AI.

Cette recommandation remplace l’ancienne recommandation que les comptes Cognitive Services doivent restreindre l’accès réseau. Il était anciennement dans la catégorie Cognitive Services et Recherche cognitive, et a été mis à jour pour se conformer au format de nommage d’Azure AI Services et s’aligner sur les ressources pertinentes.

Gravité : moyenne

Description : Azure Private Link vous permet de connecter votre réseau virtuel aux services Azure sans adresse IP publique à la source ou à la destination. La plateforme Private Link réduit les risques de fuite de données en gérant la connectivité entre le consommateur et les services via le réseau principal Azure.

En savoir plus sur les liens privés à l’adresse suivante : Qu’est-ce qu’Azure Private Link ?

Cette recommandation remplace l’ancienne recommandation Cognitive Services doit utiliser une liaison privée. Il était anciennement dans les recommandations de catégorie Données et a été mis à jour pour se conformer au format de nommage d’Azure AI Services et s’aligner sur les ressources pertinentes.

Gravité : moyenne

(Activer si nécessaire) Les ressources Azure AI Services doivent chiffrer les données au repos avec une clé gérée par le client (CMK)

Description : L’utilisation de clés gérées par le client pour chiffrer les données au repos offre un meilleur contrôle sur le cycle de vie des clés, notamment la rotation et la gestion. Cela est particulièrement pertinent pour les organisations ayant des exigences de conformité associées.

Cela n’est pas évalué par défaut et doit être appliqué uniquement en cas d’exigences de stratégie restrictives ou de conformité. Si cette option n’est pas activée, les données sont chiffrées à l’aide de clés gérées par la plateforme. Pour implémenter cela, mettez à jour le paramètre « Effet » dans la stratégie de sécurité pour l’étendue applicable. (Stratégie associée : Les ressources Azure AI Services doivent chiffrer les données au repos avec une clé gérée par le client (CMK))

Cette recommandation remplace l’ancienne recommandation des comptes Cognitive Services doit activer le chiffrement des données à l’aide de clés client. Il était anciennement dans les recommandations de catégorie Données et a été mis à jour pour se conformer au format de nommage d’Azure AI Services et s’aligner sur les ressources pertinentes.

Gravité : faible

Les journaux de diagnostic dans les ressources Azure AI services doivent être activés

Description : Activez les journaux d’activité pour les ressources des services Azure AI. Cela vous permet de recréer des pistes d’activité à des fins d’investigation, lorsqu’un incident de sécurité se produit ou que votre réseau est compromis.

Cette recommandation remplace les anciens journaux de diagnostic des recommandations dans service Search s doivent être activés. Il était anciennement dans la catégorie Cognitive Services et Recherche cognitive, et a été mis à jour pour se conformer au format de nommage d’Azure AI Services et s’aligner sur les ressources pertinentes.

Gravité : faible

Les journaux de ressource dans les espaces de travail Azure Machine Learning doivent être activés

Description & stratégie associée : les journaux de ressources permettent de recréer les pistes d’activité à utiliser à des fins d’investigation lorsqu’un incident de sécurité se produit ou lorsque votre réseau est compromis.

Gravité : moyenne

Les espaces de travail Azure Machine Learning doivent désactiver l’accès au réseau public

Description & stratégie associée : la désactivation de l’accès au réseau public améliore la sécurité en garantissant que les espaces de travail Machine Learning ne sont pas exposés sur l’Internet public. Vous pouvez contrôler l’exposition de vos espaces de travail en créant des points de terminaison privés à la place. Pour plus d’informations, consultez Configurer un point de terminaison privé pour un espace de travail Azure Machine Learning.

Gravité : moyenne

Les capacités de calcul Azure Machine Learning doivent se trouver dans un réseau virtuel

Description & stratégie associée : Les Réseau virtuel Azure fournissent une sécurité et une isolation améliorées pour vos clusters et instances de calcul Azure Machine Learning, ainsi que des sous-réseaux, des stratégies de contrôle d’accès et d’autres fonctionnalités pour restreindre davantage l’accès. Quand une capacité de calcul Azure Machine Learning est configurée avec un réseau virtuel, elle n’est pas adressable publiquement et est accessible uniquement à partir de machines virtuelles et d’applications figurant dans le réseau virtuel.

Gravité : moyenne

Les méthodes d’authentification locale doivent être désactivées pour les capacités de calcul Azure Machine Learning

Description & stratégie associée : la désactivation des méthodes d’authentification locales améliore la sécurité en garantissant que les calculs Machine Learning nécessitent des identités Azure Active Directory exclusivement pour l’authentification. Pour plus d’informations, consultez Contrôles de conformité réglementaire d’Azure Policy pour Azure Stream Analytics.

Gravité : moyenne

Les instances de calcul Azure Machine Learning doivent être recréées pour obtenir les dernières mises à jour logicielles

Description & stratégie associée : vérifiez que les instances de calcul Azure Machine Learning s’exécutent sur le système d’exploitation disponible le plus récent. La sécurité est renforcée et les vulnérabilités sont réduites si l’exécution se fait avec les derniers correctifs de sécurité. Pour plus d’informations, consultez Gestion des vulnérabilités pour Azure Machine Learning.

Gravité : moyenne

Les journaux de ressources dans les espaces de travail Azure Databricks doivent être activés

Description & stratégie associée : les journaux de ressources permettent de recréer les pistes d’activité à utiliser à des fins d’investigation lorsqu’un incident de sécurité se produit ou lorsque votre réseau est compromis.

Gravité : moyenne

Les espaces de travail Azure Databricks doivent désactiver l’accès au réseau public

Description & stratégie associée : la désactivation de l’accès au réseau public améliore la sécurité en s’assurant que la ressource n’est pas exposée sur l’Internet public. Vous pouvez contrôler l’exposition de vos ressources en créant des points de terminaison privés à la place. Pour plus d’informations, consultez Activer Azure Private Link.

Gravité : moyenne

Les clusters Azure Databricks doivent désactiver l’adresse IP publique

Description & stratégie associée : la désactivation de l’adresse IP publique des clusters dans les espaces de travail Azure Databricks améliore la sécurité en garantissant que les clusters ne sont pas exposés sur l’Internet public. Pour plus d’informations, consultez Connectivité sécurisée des clusters (pas de NPIP/IP publique).

Gravité : moyenne

Les espaces de travail Azure Databricks doivent se trouver dans un réseau virtuel

Description & stratégie associée : Les Réseau virtuel Azure fournissent une sécurité et une isolation améliorées pour vos espaces de travail Azure Databricks, ainsi que les sous-réseaux, les stratégies de contrôle d’accès et d’autres fonctionnalités pour restreindre davantage l’accès. Pour plus d’informations, consultez Déployer Azure Databricks dans votre propre réseau virtuel Azure (injection de réseau virtuel).

Gravité : moyenne

Description & stratégie associée : Azure Private Link vous permet de connecter vos réseaux virtuels aux services Azure sans adresse IP publique à la source ou à la destination. La plateforme Private Link gère la connectivité entre le consommateur et les services sur le réseau principal Azure. En mappant des points de terminaison privés à des espaces de travail Azure Databricks, vous pouvez réduire les risques de fuite de données. Pour plus d’informations, consultez Créer l’espace de travail et les points de terminaison privés dans l’interface utilisateur Portail Azure.

Gravité : moyenne

Recommandations d’IA AWS

Description du point de terminaison AMAZON Bedrock VPC alimenté par AWS PrivateLink vous permet d’établir une connexion privée entre le VPC dans votre compte et le compte de service Amazon Bedrock. AWS PrivateLink permet aux instances DE VPC de communiquer avec les ressources du service Bedrock, sans avoir besoin d’adresses IP publiques, de s’assurer que vos données ne sont pas exposées à l’Internet public et ainsi aider à répondre à vos exigences de conformité.

Niveau de gravité moyen

Les agents AWS Bedrock doivent utiliser des garde-fous lors de l’autorisation d’accès aux applications IA génératives

Description Des garde-fous pour Amazon Bedrock améliorent la sécurité des applications d’IA génératives en évaluant les entrées utilisateur et les réponses générées par des modèles. Ces garde-fous incluent des filtres de contenu, qui permettent de détecter et de filtrer le contenu dangereux. Plus précisément, la catégorie « Attaques d’invite » qui inclut des protections sur les invites utilisateur pour empêcher les jailbreaks et les injections d’invites.

Niveau de gravité moyen

AWS Bedrock doit avoir activé la journalisation des appels de modèle

Description : avec la journalisation des appels, vous pouvez collecter les données de requête complètes, les données de réponse et les métadonnées associées à tous les appels effectués dans votre compte. Cela vous permet de recréer les pistes d’activité à des fins d’investigation en cas d’incident de sécurité.

Gravité : faible

Recommandations relatives à l’IA GCP

Un point de terminaison de service privé doit être utilisé pour les points de terminaison DE Vertex AI Online (préversion)

Description: Defender pour cloud a identifié qu’un point de terminaison de service privé n’est pas configuré sur les points de terminaison Vertex AI Online. Les connexions de point de terminaison privé appliquent une communication sécurisée en activant la connectivité privée au point de terminaison de la prédiction en ligne. Configurez une connexion de point de terminaison privé pour permettre l’accès au trafic provenant uniquement des réseaux connus et empêchez l’accès à toutes les autres adresses IP.

Niveau de gravité moyen

L’accès racine doit être désactivé sur les instances Workbench (préversion)

Description: Defender pour Cloud a identifié que l’accès racine n’est pas désactivé sur l’instance GCP Workbench. Pour réduire le risque de dommages accidentels ou malveillants du système, il est essentiel de désactiver l’accès racine sur vos instances de notebook Google Cloud Vertex AI. Cette mesure limite les privilèges d’administration au sein des instances, ce qui garantit un environnement plus sécurisé.

Niveau de gravité moyen

Les adresses IP publiques doivent être désactivées sur les instances Workbench (préversion)

Description: Defender pour Cloud a identifié que les adresses IP externes ont été configurées sur l’instance GCP Workbench. Pour réduire votre surface d’attaque, les instances Workbench ne doivent pas avoir d’adresses IP publiques. Au lieu de cela, les instances doivent être configurées derrière des équilibreurs de charge pour réduire l’exposition de l’instance à Internet

Niveau de gravité moyen

(Activer si nécessaire) Les clés gérées par le client doivent être utilisées pour chiffrer les données au repos dans vertex AI DataSets (préversion)

Description: Defender pour Cloud a identifié que les clés gérées par le client ne sont pas utilisées sur les DataSets IA vertex. L’utilisation de clés gérées par le client pour chiffrer les données au repos offre un meilleur contrôle sur le cycle de vie des clés, notamment la rotation et la gestion. Cela est particulièrement pertinent pour les organisations ayant des exigences de conformité associées. En utilisant des clés gérées par le client, vous pouvez vous assurer que vos données sont chiffrées avec des clés que vous contrôlez, ce qui vous permet de gérer et de faire pivoter ces clés en fonction des besoins. Ce contrôle ajouté peut aider à répondre aux exigences de conformité et à améliorer la sécurité de vos données.

Sévérité Bas

La supervision cloud doit être utilisée sur l’instance GCP Workbench (préversion)

Description Defender pour Cloud a identifié que la supervision cloud n’est pas activée sur l’instance GCP Workbench. L’activation de l’analyse cloud pour les instances de notebook Google Cloud Vertex AI est essentielle pour le suivi des métriques de performances, la détection des problèmes au début et la garantie d’une opération optimale via une surveillance et des alertes proactives.

Sévérité Bas

L’arrêt inactif doit être activé sur les instances Workbench (préversion)

Description Defender pour Cloud a identifié que l’arrêt inactif n’est pas configuré sur l’instance GCP Workbench. Pour optimiser les coûts et améliorer la sécurité, assurez-vous que la fonctionnalité d’arrêt inactif est activée pour vos instances de notebook Google Cloud Vertex AI.

Sévérité Bas