Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cette page décrit les contrôles de conformité HIPAA dans Azure Databricks.
Vue d’ensemble de HIPAA
HIPAA est une loi américaine sur la santé qui établit des normes nationales pour protéger la confidentialité et la sécurité des informations médicales protégées (PHI).
Points clés :
- S’applique aux fournisseurs de soins de santé, aux assureurs et aux fournisseurs qui gèrent PHI.
- Inclut des règles de confidentialité, de sécurité et de notification de violation.
- Nécessite des garanties administratives, techniques et physiques pour PHI.
- S’applique aux fournisseurs de services cloud qui stockent ou traitent PHI.
Activer les contrôles de conformité HIPAA
Databricks recommande vivement aux clients qui souhaitent utiliser le contrôle de conformité HIPAA pour activer le profil de sécurité de conformité, qui ajoute des agents de surveillance, fournit une image de calcul renforcée et d’autres fonctionnalités. Seules les fonctionnalités en préversion spécifiques sont prises en charge pour le traitement des données réglementées. Pour plus d’informations sur le profil de sécurité de conformité et les fonctionnalités en préversion prises en charge, consultez le profil de sécurité de conformité.
Pour activer les contrôles de conformité HIPAA, consultez Configurer des paramètres de sécurité et de conformité améliorés.
Responsabilité partagée de la conformité HIPAA
La conformité à HIPAA a trois domaines majeurs, avec des responsabilités différentes. Bien que chaque partie ait de nombreuses responsabilités, nous énumérons les responsabilités clés de Databricks, ainsi que vos responsabilités.
Cette section utilise la terminologie du plan de contrôle et du plan de calcul, qui sont les deux parties principales de l'architecture d'Azure Databricks :
- Le plan de contrôle Azure Databricks inclut les services principaux qu’Azure Databricks gère dans son propre compte Azure.
- Le plan de calcul est l’endroit où votre lac de données est traité. Le plan de calcul classique inclut un réseau virtuel dans votre compte Azure et des clusters de ressources de calcul pour traiter vos notebooks, travaux et entrepôts SQL professionnels ou classiques.
Pour plus d’informations, consultez architecture générale.
Vous êtes uniquement responsable de la vérification que les informations sensibles ne sont jamais entrées dans les champs d’entrée définis par le client, tels que les noms d’espace de travail, les noms de ressources de calcul, les balises, les noms de travaux, les noms d’exécution de travaux, les noms de réseau, les noms d’informations d’identification, les noms de compte de stockage et les ID de référentiel Git ou les URL. Ces champs peuvent être stockés, traités ou accessibles en dehors de la limite de conformité.
Important
- Il vous incombe d‘assurer votre propre conformité à toutes les lois et réglementations applicables. Les informations fournies dans la documentation en ligne d’Azure Databricks ne constituent pas un avis juridique, et vous devez consulter votre conseiller juridique pour toute question relative à la conformité réglementaire.
- Azure Databricks ne prend pas en charge l’utilisation des fonctionnalités en préversion pour le traitement de PHI sur la plateforme HIPAA sur Azure, à l’exception des fonctionnalités répertoriées dans les fonctionnalités de préversion prises en charge.
Les principales responsabilités de Microsoft sont les suivantes :
Remplir ses obligations en tant que partenaire métier sous votre BAA avec Microsoft.
Vous fournir des machines virtuelles dans le cadre de votre contrat avec Microsoft qui prennent en charge la conformité HIPAA.
Supprimer les clés de chiffrement et les données quand Azure Databricks libère les instances de machine virtuelle.
Les principales responsabilités d’Azure Databricks sont les suivantes :
- Chiffrer les données PHI en transit envoyées vers ou depuis le plan de contrôle.
- Chiffrer les données PHI au repos dans le plan de contrôle.
- Utilisez uniquement les types d’instances pris en charge à l’aide du profil de sécurité de conformité. Azure Databricks applique cela dans l’espace de travail et l’API.
- Retirer l'approvisionnement des instances de machine virtuelle lorsque vous l'indiquez dans l'environnement Azure Databricks (par exemple, par le biais d’un arrêt automatique ou d’un arrêt manuel) afin qu’Azure puisse les effacer.
Vos responsabilités principales sont les suivantes :
- Configurer votre espace de travail pour qu’il utilise des clés gérées par le client pour les services managés ou la fonctionnalité Stocker les résultats du notebook interactif dans le compte du client.
- N’utilisez pas de fonctionnalités en préversion dans Azure Databricks pour traiter PHI, à l’exception de celles répertoriées dans les fonctionnalités de préversion prises en charge.
- Suivez les bonnes pratiques de sécurité, telles que la désactivation des sorties inutiles à partir du plan de calcul et l’utilisation des secrets Azure Databricks pour stocker les clés d’accès pour PHI.
- Entrez un contrat d’association commerciale avec Microsoft pour couvrir toutes les données traitées dans le réseau virtuel où les instances de machine virtuelle sont déployées.
- N’effectuez pas d’actions au sein d’une machine virtuelle qui violerait HIPAA. Par exemple, ne dirigez pas Azure Databricks pour envoyer un PHI non chiffré à un point de terminaison.
- Vérifiez que toutes les données qui peuvent contenir PHI sont chiffrées au repos dans n’importe quel emplacement de stockage avec lequel la plateforme Azure Databricks interagit. Cela inclut la définition du chiffrement sur les comptes de stockage d’espace de travail lors de la création de l’espace de travail. Vous êtes responsable du chiffrement et des sauvegardes de ce stockage et de toutes les autres sources de données.
- Vérifiez que toutes les données qui peuvent contenir PHI sont chiffrées en transit entre Azure Databricks et tous les systèmes de stockage de données connectés ou externes. Par exemple, les API utilisées dans les notebooks doivent utiliser le chiffrement pour toutes les connexions sortantes.